Evaluating randomized smoothing as a defense against adversarial attacks in trajectory prediction

Diese Arbeit stellt eine neue Verteidigungsmethode gegen Adversarial Attacks für Trajektorienvorhersagemodelle im autonomen Fahren vor, die auf Randomized Smoothing basiert und nachweislich die Robustheit verschiedener Modelle erhöht, ohne die Genauigkeit in nicht-adversariellen Szenarien zu beeinträchtigen.

Julian F. Schumann, Eduardo Figueiredo, Frederik Baymler Mathiesen, Luca Laurenti, Jens Kober, Arkady Zgonnikov

Veröffentlicht 2026-03-12
📖 4 Min. Lesezeit☕ Kaffeepausen-Lektüre

Each language version is independently generated for its own context, not a direct translation.

Stell dir vor, du bist ein hochintenter Autopilot, der gerade lernt, wie er durch den Verkehr navigieren muss. Deine Aufgabe ist es, vorherzusagen, wohin sich andere Autos, Fußgänger oder Radfahrer in den nächsten paar Sekunden bewegen werden. Wenn du das gut machst, kannst du sicher und flüssig fahren. Aber was passiert, wenn jemand dir absichtlich ein falsches Bild vorgaukelt?

Genau darum geht es in diesem Papier. Die Forscher untersuchen, wie man diese Vorhersage-Systeme gegen „bösartige Tricks" (sogenannte adversariale Angriffe) wappnen kann, und sie haben eine clevere Lösung namens „Randomized Smoothing" (auf Deutsch etwa: Zufälliges Glätten) gefunden.

Hier ist die Erklärung in einfachen Worten, mit ein paar bildhaften Vergleichen:

1. Das Problem: Der „Trickbetrüger" im Verkehr

Autonome Fahrzeuge verlassen sich auf KI-Modelle, um die Zukunft vorherzusagen. Diese Modelle sind normalerweise sehr gut. Aber wie jeder Mensch, der gut rechnen kann, haben sie eine Schwäche: Wenn jemand eine winzige, fast unsichtbare Veränderung in die Daten einbaut, kann das Modell völlig durcheinanderkommen.

  • Die Analogie: Stell dir vor, du siehst ein Stoppschild. Jemand hat aber mit einem winzigen Klebestreifen ein winziges Stückchen Papier darauf geklebt. Für das menschliche Auge sieht es immer noch wie ein Stoppschild aus. Aber für die KI könnte dieser winzige Klebestreifen bedeuten, dass es ein „Durchfahrt erlaubt"-Schild ist. Das Auto würde dann nicht bremsen – und das wäre katastrophal.
  • Im Verkehr bedeutet das: Ein anderes Auto könnte seine Bewegung so manipulieren, dass das autonome Fahrzeug denkt, es würde geradeaus fahren, obwohl es eigentlich eine Kurve macht. Das autonome Auto würde dann in eine Kollision fahren.

2. Die Lösung: Der „Rauchende Detektiv" (Randomized Smoothing)

Die Forscher fragen sich: Wie machen wir das System unempfindlich gegen diese winzigen Tricks? Ihre Antwort: Wir machen es ein bisschen „vernebelt".

Statt sich auf eine einzige, scharfe Beobachtung zu verlassen, schauen wir uns die Situation aus vielen leicht verzerrten Perspektiven an und mitteln das Ergebnis.

  • Die Analogie: Stell dir vor, du versuchst, ein Bild durch ein starkes Fernglas zu betrachten, aber jemand wackelt ständig mit dem Fernglas. Wenn du nur einen einzigen Moment anschaust, ist das Bild unscharf. Aber wenn du 100 Bilder in schneller Folge machst, während das Fernglas wackelt, und diese Bilder dann zu einem einzigen, klaren Bild zusammenfügst (mittlest), dann verschwinden die kleinen Störungen und das eigentliche Motiv wird klarer.
  • In der Technik heißt das: Bevor das KI-Modell eine Vorhersage trifft, wird die Eingabe (die Position des anderen Autos) mit einem kleinen, zufälligen Rauschen (wie statistischem „Grundrauschen") versehen. Das passiert hunderte Male. Das Modell sagt dann für jede dieser leicht veränderten Versionen eine Vorhersage vorher. Am Ende wird alle diese Vorhersagen gemittelt.

3. Warum funktioniert das?

Wenn ein Angreifer das System täuschen will, muss er einen sehr spezifischen, perfekten Trick finden. Aber wenn das System ständig leicht „vernebelt" ist und aus vielen Winkeln schaut, wird der Trick des Angreifers verwässert.

  • Die Analogie: Stell dir vor, du versuchst, einen Ball durch ein Labyrinth zu werfen, um ein Ziel zu treffen. Wenn das Labyrinth starr ist, reicht ein kleiner Stoß, um den Ball in die falsche Richtung zu lenken. Aber wenn das Labyrinth aus Gummi ist und ständig leicht wackelt (das „Rauschen"), dann prallt der Ball an vielen Stellen ab und landet am Ende trotzdem ziemlich genau dort, wo er hin soll. Der Angreifer kann den Ball nicht mehr so leicht manipulieren.

4. Die Ergebnisse: Besser sicher, ohne langsamer zu werden

Die Forscher haben das an echten Daten getestet (z. B. von deutschen Kreisverkehren und Simulatoren). Das Tolle an ihrer Methode ist:

  1. Robustheit: Unter Angriffen funktioniert das System viel besser. Die Vorhersagen bleiben stabil, auch wenn jemand versucht, sie zu täuschen.
  2. Kein Nachteil im Normalfall: Das Wichtigste: Wenn niemand einen Angriff startet (also im normalen, ruhigen Verkehr), wird das Auto nicht schlechter. Es verliert keine Genauigkeit. Im Gegenteil, in manchen Fällen wurde es sogar noch besser, weil das „Mitteln" wie eine Art Schutzschild gegen Überreaktionen wirkt.

Fazit

Diese Studie zeigt, dass man autonome Fahrzeuge nicht nur mit komplexeren Modellen sicherer machen muss, sondern auch mit einer cleveren „Tricks": Indem man die Vorhersagen leicht „vernebelt" und dann mittelt, macht man das System immun gegen kleine, böswillige Manipulationen.

Es ist wie ein Schutzanzug für die KI: Er kostet kaum etwas (ist rechnerisch günstig), macht das Auto nicht langsamer, aber wenn jemand versucht, es zu täuschen, prallt der Angriff einfach ab. Das ist ein großer Schritt hin zu sicherem, autonomem Fahren.