Addressing Camera Sensors Faults in Vision-Based Navigation: Simulation and Dataset Development

Diese Studie adressiert die Herausforderungen bei der Zuverlässigkeit von visuellen Navigationssystemen im Weltraum durch die systematische Charakterisierung von Kamerafehlern und die Entwicklung eines Simulationsrahmens zur Generierung eines synthetischen Datensatzes für das Training von KI-basierten Fehlererkennungsalgorithmen.

Riccardo Gallon, Fabian Schiemenz, Alessandra Menicucci, Eberhard Gill

Veröffentlicht 2026-02-25
📖 4 Min. Lesezeit☕ Kaffeepausen-Lektüre

Each language version is independently generated for its own context, not a direct translation.

Stellen Sie sich vor, Sie steuern ein autonomes Auto durch eine fremde Stadt. Das Auto muss die Straße sehen, Hindernisse erkennen und sicher navigieren. Nun stellen Sie sich vor, dieses Auto fliegt nicht auf der Erde, sondern landet auf einem kahlen, staubigen Asteroiden im tiefen Weltraum. Das ist die Aufgabe des Projekts Astrone KI.

Das Problem: Die „Augen" dieses Raumfahrzeugs – also die Kameras – können im Weltraum kaputtgehen oder getäuscht werden. Wenn die Kamera nur noch ein verschwommenes Bild liefert oder von einem grellen Sonnenstrahl geblendet wird, kann das Navigations-System den Weg nicht mehr finden. Das könnte die ganze Mission gefährden.

Hier kommt die KI (Künstliche Intelligenz) ins Spiel. Sie soll wie ein sehr aufmerksamer Copilot funktionieren, der sofort merkt: „Hey, das Bild ist verdächtig! Die Kamera hat ein Problem!"

Aber wie trainiert man einen solchen Copiloten? Man kann ihm nicht einfach sagen: „Guck mal, hier ist ein kaputtes Bild." Denn im Weltraum gibt es keine fertigen Beispiele von kaputten Kameras, die man einfach einsammeln kann.

Die Lösung: Ein riesiges „Schulbuch" aus Simulationen

Die Autoren dieses Papers haben eine clevere Idee entwickelt: Sie haben eine digitale Spielwiese gebaut, in der sie absichtlich Fehler in die Bilder einbauen, um die KI zu trainieren.

Stellen Sie sich das wie einen Kochkurs für KI vor:

  1. Die Zutaten: Sie brauchen Bilder von einem Asteroiden (in diesem Fall dem Kometen 67P).
  2. Die Fehler (Die „verdorbenen" Zutaten): Die Forscher haben verschiedene Arten von „Verderb" simuliert, die in der echten Welt passieren können:
    • Staub auf der Linse: Wie wenn Sie mit einem dreckigen Finger über eine Kamera gehen. Das Bild wird dunkel und unscharf.
    • Tote Pixel: Stellen Sie sich vor, auf Ihrem Handy-Bildschirm wären ein paar Pixel schwarz oder leuchten immer weiß. Das passiert Kameras im All durch Strahlung.
    • Sonnenblendung (Straylight): Wie wenn Sie bei hellem Sonnenlicht durch eine Linse schauen und ein greller Lichtreflex (ein „Linsenblitz") das Bild überlagert.
    • Vignettierung: Das Bild wird an den Rändern dunkel, als würde man durch ein altes, schmutziges Fenster schauen.
    • Allgemeine Unschärfe: Die Linse wird mit der Zeit trüb, wie eine alte Brille.

Wie funktioniert das Training?

Normalerweise müsste man Jahre warten, bis eine echte Kamera im All zufällig einen dieser Fehler macht, um ein Foto davon zu machen. Das wäre viel zu langsam.

Stattdessen haben die Forscher einen Simulator gebaut (ein sehr komplexes Videospiel für Ingenieure).

  • Sie lassen das virtuelle Raumschiff um den Kometen fliegen.
  • Dann sagen sie dem Simulator: „Mach jetzt Staub auf die Linse!" oder „Blende das Bild mit der Sonne!"
  • Der Computer erzeugt sofort ein neues Bild mit genau diesem Fehler.
  • Gleichzeitig erstellt er eine Schablone (Mask), die genau markiert: „Hier ist der Staub, hier ist der tote Pixel."

Das Ergebnis ist ein riesiger Datensatz mit 5.000 Bildern. Jedes Bild ist ein Lehrbeispiel. Die KI kann damit lernen: „Aha, wenn ich so einen dunklen Fleck sehe, ist es Staub. Wenn ich so einen hellen Blitz sehe, ist es Sonnenblendung."

Warum ist das so wichtig?

Früher haben Ingenieure versucht, Fehler mit strengen Regeln zu finden (z. B. „Wenn ein Pixel zu hell ist, ist er kaputt"). Das funktioniert im chaotischen Weltraum oft nicht gut.

Mit dieser neuen Methode lernt die KI wie ein Mensch: Sie sieht tausende Beispiele von Fehlern und versteht das Muster. Wenn die echte Kamera dann im All plötzlich von Staub bedeckt wird, erkennt die KI das sofort und kann dem Raumschiff sagen: „Verlasse dich jetzt nicht auf die Kamera, wir müssen einen anderen Weg finden oder die Kamera reinigen."

Zusammenfassung in einer Metapher

Stellen Sie sich vor, Sie wollen einen Lehrer für einen blinden Schüler trainieren, damit dieser lernt, Hindernisse zu „fühlen".

  • Das alte Problem: Sie müssten warten, bis der Schüler zufällig gegen einen Baum läuft, um zu lernen, dass Bäume weh tun.
  • Die neue Methode (dieses Paper): Sie bauen eine virtuelle Welt, in der Sie dem Schüler absichtlich Bäume, Mauern und Löcher in den Weg legen. Sie zeichnen ihm genau auf, wo die Hindernisse sind. Der Schüler (die KI) trainiert in dieser sicheren Simulation, bis er perfekt ist. Dann ist er bereit für die echte Welt, ohne dass er sich verletzt.

Dieses Paper liefert also das Trainingsmaterial, damit die KI der Astrone-Mission sicher durch den Weltraum navigieren kann, selbst wenn ihre „Augen" mal einen Streich spielen.

Erhalten Sie solche Paper in Ihrem Posteingang

Personalisierte tägliche oder wöchentliche Digests passend zu Ihren Interessen. Gists oder technische Zusammenfassungen, in Ihrer Sprache.

Digest testen →