Can VLMs Reason Robustly? A Neuro-Symbolic Investigation

Die Studie zeigt, dass herkömmliche Vision-Language-Modelle bei Kovariatenverschiebungen versagen, und stellt VLC vor, eine neuro-symbolische Methode, die VLM-basierte Objekterkennung mit exakt ausführbaren symbolischen Schaltkreisen kombiniert, um robustes logisches Schließen zu gewährleisten.

Weixin Chen, Antonio Vergari, Han Zhao

Veröffentlicht 2026-03-26
📖 4 Min. Lesezeit☕ Kaffeepausen-Lektüre

Each language version is independently generated for its own context, not a direct translation.

Stellen Sie sich vor, Sie haben einen sehr klugen, aber manchmal etwas chaotischen Assistenten. Dieser Assistent ist ein Vision-Language Model (VLM). Er kann Bilder sehen und Texte verstehen. Wenn Sie ihm ein Bild von drei Äpfeln zeigen und fragen: „Wie viele Äpfel sind das?", antwortet er sofort: „Drei". Das ist super, wenn die Äpfel immer gleich aussehen.

Aber was passiert, wenn Sie ihm plötzlich ein Bild mit tausend Äpfeln zeigen, oder wenn die Äpfel in einer völlig anderen Anordnung liegen? Oder wenn Sie ihn bitten, eine komplexe Rechenaufgabe zu lösen, bei der die Anzahl der Objekte variiert?

Genau hier liegt das Problem, das diese Forscher untersucht haben.

Das Problem: Der Assistent lernt nur Muster, keine Regeln

Die Forscher stellten fest, dass diese KI-Assistenten oft nur Muster auswendig lernen, anstatt die eigentliche Logik zu verstehen.

  • Die Analogie: Stellen Sie sich vor, Sie trainieren einen Schüler, indem Sie ihm immer nur Bilder mit 3 Äpfeln zeigen und ihm sagen: „Das sind 3". Wenn Sie ihn dann testen, wie er mit 100 Äpfeln umgeht, scheitert er oft. Er hat nicht gelernt, zu zählen; er hat nur gelernt, wie ein Bild mit 3 Äpfeln aussieht.
  • Das Ergebnis: Wenn sich die Bilder ändern (z. B. mehr Objekte, andere Anordnung), versagt der KI-Assistent, obwohl die Regel (z. B. „addiere alles") genau dieselbe bleibt. Er ist nicht robust.

Der Versuch mit „Neuro-Symbolischen" Methoden

Die Forscher dachten sich: „Okay, lassen wir den KI-Assistenten die Bilder ansehen, aber die eigentliche Logik macht ein Computerprogramm."
Sie testeten zwei moderne Ansätze:

  1. Prism: Der Assistent schaut hin, dann gibt er die Daten an einen riesigen Sprach-Chatbot (LLM) weiter, der die Logik lösen soll.
  2. ViperGPT: Der Chatbot schreibt ein Computerprogramm, das die Aufgabe löst.

Das Ergebnis war enttäuschend: Auch diese Methoden waren nicht perfekt. Der Chatbot machte manchmal logische Fehler, oder das Programm scheiterte, wenn der Bild-Erkennungs-Assistent einen kleinen Fehler machte. Es war wie ein Team, bei dem jeder auf den anderen wartet und ein einziger Fehler das ganze System zum Kollabieren bringt.

Die Lösung: VLC – Der „Baukasten" aus Mensch und Maschine

Die Forscher entwickelten eine neue Methode namens VLC (Vision-Language Circuit). Hier ist die Idee in einfachen Worten:

Stellen Sie sich VLC als ein perfektes Team aus einem Fotografen und einem strengen Mathematiker vor.

  1. Der Fotograf (Die KI): Seine einzige Aufgabe ist es, das Bild zu betrachten und zu sagen: „Ich sehe hier eine 5, eine 3 und eine 7." Er muss nicht rechnen, er muss nur erkennen.
  2. Der Mathematiker (Der Schaltkreis): Dieser ist kein KI-Modell, sondern ein festes, unveränderliches Computerprogramm (ein sogenannter „Schaltkreis" oder Circuit). In dieses Programm hat der Mensch die Regeln fest eingebrannt.
    • Beispiel: „Wenn du Zahlen siehst, addiere sie."
    • Der Mathematiker nimmt die Zahlen vom Fotografen (5, 3, 7) und rechnet sie exakt nach der festgelegten Regel aus. Er macht keine Fehler, er rät nicht, er folgt strikt den Regeln.

Warum ist das besser?
Weil die Regel (das Addieren) nicht vom Zufall abhängt. Selbst wenn der Fotograf ein Bild mit 100 Zahlen sieht, rechnet der Mathematiker einfach weiter. Er ist immun gegen die Verwirrung, die bei reinen KI-Modellen auftritt, wenn sich die Bilder ändern.

Was haben die Forscher gelernt?

  1. Größer ist nicht immer klüger: Wenn man die KI-Assistenten größer macht (mehr Daten, mehr Parameter), werden sie besser darin, Dinge zu erkennen (z. B. „Das ist eine 5"), aber sie werden nicht unbedingt besser darin, zu logisch zu denken.
  2. Logik muss explizit sein: Man kann KI nicht einfach darauf hoffen lassen, dass sie die Logik von selbst lernt. Man muss die Logik (die Regeln) in ein festes System einbauen, das sie nicht vergisst.
  3. Trennung ist der Schlüssel: Wenn man das „Sehen" (die KI) vom „Denken" (das feste Programm) trennt, wird das System viel zuverlässiger.

Fazit

Die Botschaft der Studie ist wie folgt: Um KI wirklich robust zu machen, sollten wir sie nicht versuchen, alles auf einmal zu lernen. Stattdessen sollten wir sie als Werkzeug nutzen, um die Welt zu sehen, und dann klare, feste Regeln (wie ein Baukasten) verwenden, um die eigentliche Arbeit zu erledigen. So funktioniert der Assistent nicht nur mit den Bildern, die er kennt, sondern auch mit neuen, schwierigen Situationen.

Ertrinken Sie in Arbeiten in Ihrem Fachgebiet?

Erhalten Sie tägliche Digests der neuesten Arbeiten passend zu Ihren Forschungsbegriffen — mit technischen Zusammenfassungen, in Ihrer Sprache.

Digest testen →