Devil is in Narrow Policy: Unleashing Exploration in Driving VLA Models

Die Arbeit stellt Curious-VLA vor, ein zweistufiges Framework, das durch Feasible Trajectory Expansion und Adaptive Diversity-Aware Sampling die Exploration in autonomen VLA-Modellen verbessert und so auf dem Navsim-Benchmark neue State-of-the-Art-Ergebnisse erzielt.

Canyu Chen, Yuguang Yang, Zhewen Tan, Yizhi Wang, Ruiyi Zhan, Haiyan Liu, Xuanyao Mao, Jason Bao, Xinyue Tang, Linlin Yang, Bingchuan Sun, Yan Wang, Baochang Zhang

Veröffentlicht 2026-03-09
📖 4 Min. Lesezeit☕ Kaffeepausen-Lektüre

Each language version is independently generated for its own context, not a direct translation.

Hier ist eine einfache, bildhafte Erklärung der Forschung „Devil is in Narrow Policy" (Der Teufel steckt im engen Fahrplan), als würde man sie einem Freund beim Kaffee erzählen:

Das große Problem: Der „Autopilot", der nur eine Spur kennt

Stell dir vor, du möchtest einem Roboter beibringen, Auto zu fahren. Der aktuelle Standard ist wie folgt:

  1. Phase 1 (Abkupieren): Du zeigst dem Roboter tausende Videos von menschlichen Fahrern und sagst: „Mach genau das nach."
  2. Phase 2 (Verbessern): Du lässt den Roboter dann selbst fahren und gibst ihm Punkte, wenn er gut fährt, und Abzüge, wenn er schlecht fährt.

Das Problem: In Phase 1 lernt der Roboter so gut nachzuahmen, dass er in eine enge Denk-Schublade (die Autoren nennen das „Narrow Policy") gerät. Er denkt: „Es gibt nur einen richtigen Weg, und das ist der Weg, den der Mensch in den Videos genommen hat."

Wenn er dann in Phase 2 (das Training mit Punkten) beginnt, ist er so festgefahren in dieser einen Spur, dass er keine neuen Ideen mehr hat. Er probiert nichts Neues aus, weil er Angst hat, vom „richtigen" Weg abzukommen. Das Ergebnis? Der Roboter wird steif, unflexibel und kann in komplexen Situationen (wie einer Baustelle oder einem Unfall) nicht kreativ reagieren. Er kollabiert gewissermaßen in seiner eigenen Unsicherheit.

Die Lösung: Curious-VLA (Der neugierige Roboter)

Die Forscher haben eine neue Methode namens Curious-VLA entwickelt. Das Ziel ist es, den Roboter wieder neugierig zu machen und ihm zu zeigen, dass es im Leben (und beim Fahren) oft mehrere gute Wege gibt, nicht nur einen.

Sie tun das in zwei Schritten, ähnlich wie beim Lernen eines neuen Sports:

Schritt 1: Das „Was-wäre-wenn"-Training (Imitation Learning)

Statt dem Roboter nur eine menschliche Fahrspur zu zeigen, sagen sie: „Schau mal, hier sind zehn verschiedene Wege, wie man diese Kreuzung sicher überqueren könnte."

  • Die Analogie: Stell dir vor, du lernst Kochen. Ein schlechter Lehrer zeigt dir nur ein Rezept für Spaghetti. Ein guter Lehrer zeigt dir: „Du kannst die Nudeln al dente kochen, weich kochen, mit Tomatensoße oder mit Pesto. Alle sind lecker!"
  • Die Technik: Sie nutzen einen speziellen Algorithmus, um viele verschiedene, aber sichere Fahrtrajektorien zu generieren. Zudem „normalisieren" sie die Daten (machen sie vergleichbar), damit der Roboter nicht verwirrt ist, wenn der Weg mal kurz und mal lang ist.

Schritt 2: Das Belohnungssystem für Mut (Reinforcement Learning)

Jetzt kommt das eigentliche Training. Normalerweise bekommt ein Roboter Punkte, wenn er „richtig" fährt. Aber was ist, wenn er einen neuen, aber auch guten Weg probiert?

  • Die „Kreative Belohnung": Die Forscher haben eine neue Belohnungsfunktion erfunden. Sie sagen dem Roboter: „Wenn du einen Weg fährst, der sich von den anderen unterscheidet, aber trotzdem sicher ist, bekommst du extra Punkte!"
  • Die Analogie: Stell dir einen Lehrer vor, der nicht nur die richtige Antwort auf einen Test belohnt, sondern auch den Schüler, der einen cleveren, neuen Lösungsweg findet, auch wenn er etwas länger dauert.
  • Die Technik: Sie filtern Szenarien heraus, bei denen der Roboter immer nur das Gleiche tut, und konzentrieren sich auf die Situationen, in denen er verschiedene Entscheidungen treffen könnte. So lernt er, flexibel zu bleiben.

Das Ergebnis: Ein smarter, mutiger Fahrer

Am Ende haben sie einen Roboter, der:

  1. Vielseitig ist: Er kann viele verschiedene Wege finden, um ans Ziel zu kommen.
  2. Sicher ist: Er probiert nicht einfach wild rum, sondern nur sichere, sinnvolle Varianten.
  3. Besser abschneidet: Auf den offiziellen Teststrecken (Navsim) hat dieser neue Roboter alle bisherigen Rekorde gebrochen. Er ist nicht nur schneller, sondern auch sicherer, weil er nicht in einer einzigen „Denk-Schublade" gefangen ist.

Zusammenfassung in einem Satz

Die Forscher haben herausgefunden, dass KI-Autopiloten oft zu stur sind, weil sie nur das eine „perfekte" Beispiel kopieren; mit Curious-VLA haben sie ihnen beigebracht, dass es viele gute Wege gibt, und sie dafür belohnt, neugierig zu bleiben – genau wie ein erfahrener menschlicher Fahrer, der in jeder Situation die beste Lösung findet.