When Sensors Fail: Temporal Sequence Models for Robust PPO under Sensor Drift

Die Studie zeigt, dass die Erweiterung von Proximal Policy Optimization (PPO) mit temporalen Sequenzmodellen wie Transformern die Robustheit gegenüber sensorischen Drifts und Ausfällen in kontinuierlichen Steuerungsaufgaben signifikant verbessert, indem sie fehlende Beobachtungen durch historische Kontexte rekonstruiert und so die Leistungsfähigkeit auch unter starken Störungen aufrechterhält.

Kevin Vogt-Lowell, Theodoros Tsiligkaridis, Rodney Lafuente-Mercado, Surabhi Ghatti, Shanghua Gao, Marinka Zitnik, Daniela Rus

Veröffentlicht 2026-03-06
📖 4 Min. Lesezeit☕ Kaffeepausen-Lektüre

Each language version is independently generated for its own context, not a direct translation.

Wenn die Sensoren streiken: Wie KI lernt, auch bei „Blindflug" zu bestehen

Stellen Sie sich vor, Sie fahren ein hochmodernes Auto mit einem selbstfahrenden System. Alles läuft perfekt, bis plötzlich die Hälfte Ihrer Sensoren ausfällt. Der linke Abstandssensor ist tot, die Kamera für die Spurhaltung flackert, und der Geschwindigkeitsmesser zeigt nur noch Null an. Was passiert dann?

Ein normales KI-System (wie ein herkömmlicher Roboter) würde wahrscheinlich panisch werden, ins Schleudern geraten oder einfach anhalten, weil es nicht mehr „sieht". Es ist wie ein Mensch, der versucht, ein Puzzle zu lösen, aber ihm fehlen plötzlich die Hälfte der Teile und er weiß nicht, dass sie fehlen.

Diese neue Forschungsarbeit von Wissenschaftlern des MIT und Harvard untersucht genau dieses Problem: Wie können KI-Systeme robust bleiben, wenn ihre Sinnesorgane (Sensoren) versagen?

Hier ist die einfache Erklärung der wichtigsten Punkte, verpackt in ein paar anschauliche Bilder:

1. Das Problem: Der „verwöhnte" KI-Agent

Die meisten KI-Systeme, die wir heute trainieren (genannt PPO in der Fachsprache), sind wie verwöhnte Kinder. Sie werden in einer perfekten Welt trainiert, in der sie alles sehen können. Sie gehen davon aus, dass ihre Daten immer vollständig und fehlerfrei sind.
Sobald in der echten Welt ein Sensor ausfällt (z. B. durch Regen, Vandalismus oder technisches Versagen), wird das System „brüchig". Es verliert den Bezug zur Realität, weil es nicht weiß, wie es mit Lücken in seinen Daten umgehen soll.

2. Die Lösung: Die „Gedächtnis-Trainer"

Die Forscher haben eine clefere Idee gehabt: Statt dem KI-System nur das zu geben, was es jetzt gerade sieht, geben wir ihm einen Zeitmaschinen-Effekt.
Sie haben das System mit Sequenzmodellen (wie Transformatoren oder speziellen Speicher-Modellen) ausgestattet.

  • Die Analogie: Stellen Sie sich vor, Sie spielen Schach, aber Ihr Gegner deckt ab und zu Ihre Figuren ab. Ein normaler Spieler würde raten. Ein Spieler mit einem „Gedächtnis" (unser neues System) würde sich jedoch erinnern: „Aha, vor drei Zügen war die Dame noch da, und die Regeln erlauben es nicht, dass sie einfach verschwindet. Also ist sie wahrscheinlich noch da, auch wenn ich sie gerade nicht sehe."
  • Diese Systeme nutzen die Vergangenheit, um die Gegenwart zu rekonstruieren. Wenn ein Sensor ausfällt, schaut das System in seine „Erinnerung" und sagt: „Basierend auf dem, was vor 10 Sekunden passierte, ist der linke Sensor wahrscheinlich noch intakt, auch wenn er jetzt stumm ist."

3. Der große Wettstreit: Wer ist der Beste?

Die Forscher haben verschiedene KI-Architekturen gegeneinander antreten lassen, um zu sehen, wer am besten mit Sensor-Ausfällen zurechtkommt:

  • Der MLP (Der Einfache): Ein einfaches neuronales Netz ohne Gedächtnis. Es schaut nur auf den aktuellen Moment. Ergebnis: Wenn Sensoren ausfallen, fällt er sofort ins Bodenlose. Er ist wie ein Mensch, der versucht, einen Satz zu verstehen, ohne jemals den vorherigen gehört zu haben.
  • RNNs & SSMs (Die Gedächtnis-Künstler): Diese Modelle haben ein gewisses Gedächtnis (wie ein Kurzzeitgedächtnis). Sie sind besser als der Einfache, aber sie haben Schwierigkeiten, wenn die Datenlücken zu groß oder zu chaotisch werden. Sie erinnern sich oft an das „Falsche" oder verlieren den Faden.
  • Der Transformer (Der Super-Detektiv): Das ist der Gewinner des Wettbewerbs. Der Transformer ist wie ein Detektiv, der nicht nur die Vergangenheit linear durchgeht, sondern alles gleichzeitig betrachtet. Er kann sich gezielt an genau den Moment in der Vergangenheit erinnern, der für das aktuelle Problem relevant ist, und ignoriert die Lücken geschickt.
    • Das Ergebnis: Selbst wenn 60 % der Sensoren ausfallen, bleibt der Transformer-System stabil und fährt sicher weiter, während die anderen Systeme versagen.

4. Die Theorie: Warum funktioniert das?

Die Autoren haben auch eine mathematische Formel entwickelt, die beweist, warum das funktioniert.
Stellen Sie sich vor, die KI ist ein Seiltänzer.

  • Wenn der Seiltänzer sehr „glatt" und vorhersehbar agiert (eine Eigenschaft, die man Glätte nennt), und
  • wenn die Ausfälle der Sensoren nicht zu lange anhalten (sie erholen sich schnell),
    dann gibt es eine mathematische Garantie, dass der Seiltänzer nicht vom Seil fällt, selbst wenn er kurzzeitig die Augen zudrückt.

Die Formel zeigt: Je besser die KI lernt, aus der Vergangenheit zu lernen, und je weniger chaotisch die Sensor-Ausfälle sind, desto sicherer bleibt sie.

Fazit: Warum ist das wichtig?

Diese Forschung ist ein großer Schritt für die Zukunft von Robotern, autonomen Autos und Drohnen. In der echten Welt sind Sensoren nie perfekt. Sie werden schmutzig, kaputt oder gestört.

Die Botschaft der Studie ist klar: Wir müssen KI-Systeme nicht nur lehren, zu sehen, sondern auch zu „denken" und zu „erinnern". Wenn wir ihnen beibringen, mit Lücken umzugehen und ihre eigene Geschichte zu nutzen, werden sie viel robuster und zuverlässiger – genau wie ein erfahrener Pilot, der auch bei schlechter Sicht und kaputten Instrumenten sicher landen kann.

Der Transformer ist dabei der Held, der zeigt, dass ein gutes Gedächtnis und die Fähigkeit, Zusammenhänge zu erkennen, der Schlüssel zum Überleben in einer unzuverlässigen Welt sind.

Get papers like this in your inbox

Personalized daily or weekly digests matching your interests. Gists or technical summaries, in your language.

Try Digest →