Probing Visual Concepts in Lightweight Vision-Language Models for Automated Driving

Diese Studie analysiert die inneren Aktivierungen von leichten Vision-Language-Modellen für den autonomen Fahrverkehr, um festzustellen, dass visuelle Konzepte wie Objektpräsenz linear kodiert sind, während räumliche Eigenschaften oft nur implizit vorliegen, und identifiziert dabei zwei Hauptfehlermodi: eine wahrgenommene Unfähigkeit, visuelle Informationen zu erfassen, sowie eine kognitive Unfähigkeit, diese mit Sprachsemantik korrekt abzugleichen.

Nikos Theodoridis, Reenu Mohandas, Ganesh Sistu, Anthony Scanlan, Ciarán Eising, Tim Brophy

Veröffentlicht 2026-03-09
📖 4 Min. Lesezeit☕ Kaffeepausen-Lektüre

Each language version is independently generated for its own context, not a direct translation.

🚗 Das Rätsel der „dummen" KI im Auto

Stell dir vor, du hast einen sehr schlauen, aber manchmal etwas verwirrten Reisebegleiter in deinem selbstfahrenden Auto. Dieser Begleiter ist eine KI, die sowohl Bilder sehen als auch sprechen kann (ein sogenanntes Vision-Language Model). Er ist super darin, komplexe Dinge zu verstehen, aber manchmal scheitert er an ganz einfachen Fragen: „Ist da vorne ein Fußgänger?" oder „Wie viele Ampeln sind rot?"

Die Forscher aus Irland und von Valeo haben sich gefragt: Warum macht er solche Fehler? Ist er blind? Oder versteht er einfach nicht, was er sieht?

Um das herauszufinden, haben sie nicht nur auf das Ergebnis geschaut, sondern wie ein Mechaniker, der den Motor öffnet, direkt in das Gehirn der KI geschaut.

🔍 Der Werkzeugkasten: Der „Lineare Sonden"-Test

Stell dir vor, die KI ist wie eine riesige Fabrik mit vielen Abteilungen:

  1. Die Kamera (Vision Encoder): Nimmt das Bild auf.
  2. Der Übersetzer (Projector): Wandelt das Bild in eine Sprache um, die das Gehirn versteht.
  3. Das Gehirn (LLM): Denkt nach und gibt die Antwort.

Die Forscher haben eine clevere Methode benutzt, die sie „Lineare Sonden" nennen.

  • Die Analogie: Stell dir vor, du hast einen Haufen durcheinander gewürfelter Lego-Steine (die Daten im Gehirn der KI). Du willst wissen, ob darin ein roter Stein (z. B. ein Fußgänger) versteckt ist.
  • Statt das ganze Haus zu bauen, nehmen die Forscher einen einfachen Magnet (die Sonde). Wenn sie den Magnet durch die Lego-Haufen fahren, zeigt er an: „Hier ist ein roter Stein!" oder „Hier ist keiner."

Sie haben das durch alle Abteilungen der KI gemacht, um zu sehen, wo der rote Stein verloren geht.

🎭 Die zwei Arten, wie die KI scheitert

Das war die große Entdeckung der Studie. Die KI kann auf zwei völlig verschiedene Arten versagen:

1. Der „Blinden"-Fehler (Perzeptives Versagen)

Hier ist das Problem, dass die Information gar nicht erst im Gehirn ankommt.

  • Die Analogie: Stell dir vor, du stehst in einem dunklen Raum und jemand fragt dich: „Ist da eine rote Laterne?" Du kannst sie nicht sehen, weil es zu dunkel ist oder deine Brille schmutzig ist.
  • In der KI: Die Kamera (Vision Encoder) hat das Bild nicht richtig „gesehen" oder die Information wurde auf dem Weg zum Gehirn so stark verzerrt, dass sie verschwunden ist. Die Sonde findet den roten Stein nicht. Die KI ist hier wirklich „blind".

2. Der „Verwirrten"-Fehler (Kognitives Versagen)

Das ist der lustigere und gefährlichere Teil. Hier ist die Information da, aber die KI nutzt sie falsch.

  • Die Analogie: Stell dir vor, du stehst in einem hell erleuchteten Raum und siehst die rote Laterne ganz deutlich. Aber als dich jemand fragt: „Was ist das?", antwortest du aus Versehen: „Das ist ein blauer Ball." Du hast die Information gesehen, aber dein Gehirn hat sie falsch zugeordnet.
  • In der KI: Die Sonde findet den roten Stein ganz klar im Gehirn der KI (die Information ist da!). Aber wenn die KI die Frage bekommt, verknüpft sie das Bild nicht richtig mit dem Wort „Fußgänger". Sie weiß es eigentlich, sagt es aber nicht.

📏 Das Problem mit der Entfernung

Ein weiterer wichtiger Punkt: Je weiter weg ein Objekt ist, desto schlechter funktioniert die KI.

  • Die Analogie: Wenn ein Fußgänger 5 Meter entfernt ist, ist er wie ein riesiger Riese auf dem Bildschirm. Die KI sieht ihn klar. Wenn er aber 50 Meter entfernt ist, ist er nur noch ein winziger Punkt.
  • Die Studie zeigt: Bei 50 Metern wird die Information so unscharf, dass selbst die „Linearen Sonden" sie kaum noch finden können. Für ein Auto, das in 50 Metern Bremsen muss, ist das ein riesiges Problem.

🧪 Was haben sie getestet?

Sie haben die KI mit künstlichen Bildern aus einem Videospiel (CARLA) gefüttert, bei denen sie nur eine Sache verändert haben:

  • Anwesenheit: Ist da ein Fußgänger oder nicht?
  • Anzahl: Sind es 1 oder 3 Fußgänger?
  • Richtung: Geht der Fußgänger nach links oder rechts?
  • Position: Ist der Fußgänger links oder rechts von der Straße?

Sie haben dabei gesehen, dass die KI bei „Ist da jemand?" (Anwesenheit) ziemlich gut ist, aber bei „Nach links oder rechts?" (Richtung) oft versagt.

🚀 Was bedeutet das für uns?

Die Forscher sagen: Wir müssen die KI nicht nur „besser trainieren", sondern sie besser verstehen.

  • Wenn sie blind ist (Fehler 1), müssen wir die Kamera oder den Bild-Verstärker verbessern.
  • Wenn sie verwirrt ist (Fehler 2), müssen wir das Training ändern, damit sie lernt, Bilder und Wörter besser zusammenzubringen.

Fazit: Diese kleinen KI-Modelle sind vielversprechend für Autos, aber sie haben noch Schwächen. Sie sind nicht „dumm", sie haben nur manchmal einen „Kopfschmerz" (kognitiver Fehler) oder eine „schlechte Brille" (perzeptiver Fehler). Wenn wir wissen, welcher Fehler vorliegt, können wir das Auto sicherer machen.