From Perception to Action: An Interactive Benchmark for Vision Reasoning

Die Arbeit stellt CHAIN vor, ein interaktives 3D-Testumfeld, das die Fähigkeit von Vision-Language-Modellen bewertet, physische Strukturen zu verstehen und kausale Handlungssequenzen zu planen, wobei die Ergebnisse zeigen, dass selbst fortschrittliche Modelle Schwierigkeiten haben, geometrische und physikalische Einschränkungen in zuverlässige, langfristige Handlungen umzusetzen.

Yuhao Wu, Maojia Song, Yihuai Lan, Lei Wang, Zhiqiang Hu, Yao Xiao, Heng Zhou, Weihua Zheng, Dylan Raharja, Soujanya Poria, Roy Ka-Wei Lee

Veröffentlicht 2026-02-25
📖 4 Min. Lesezeit☕ Kaffeepausen-Lektüre

Each language version is independently generated for its own context, not a direct translation.

Stell dir vor, du hast einen sehr klugen Roboter, der alles auf Bildern sehen und beschreiben kann. Wenn du ihm ein Foto von einem zerlegten Puzzle zeigst, kann er dir vielleicht sagen: „Das ist ein rotes Holzteil und das ist ein blaues Holzteil." Das ist gut. Aber kann er dir auch sagen, wie man das Puzzle zusammenbaut, ohne dass die Teile ineinander stecken bleiben? Oder wie man einen Turm aus Klötzen baut, der nicht umfällt, wenn man den nächsten Klotz darauf legt?

Genau hier liegt das Problem, das diese Forscher mit ihrer neuen Arbeit „CHAIN" lösen wollen.

Hier ist die Erklärung der Studie in einfachen Worten, mit ein paar anschaulichen Vergleichen:

1. Das Problem: Der „Starre Fotograf" vs. Der „Handwerker"

Bisher haben wir KI-Modelle (wie Chatbots mit Augen) hauptsächlich getestet, indem wir ihnen statische Bilder zeigten und Fragen stellten.

  • Der alte Weg: Du zeigst dem Roboter ein Foto von einem verschlossenen Türschloss und fragst: „Wie sieht das aus?" Der Roboter antwortet: „Es sieht nach Metall aus."
  • Das Problem: Das ist wie ein Fotograf, der nur Bilder macht. Ein echter Handwerker muss aber handeln. Er muss wissen: „Wenn ich diesen Stift zuerst ziehe, klemmt sich das andere Teil fest."

Die aktuellen KI-Modelle sind wie starre Fotografen. Sie sehen die Welt, verstehen aber nicht, wie die Dinge physikalisch zusammenhängen. Sie wissen nicht, dass Schwerkraft existiert oder dass sich zwei Teile nicht durchdringen können.

2. Die Lösung: CHAIN – Der „3D-Spielplatz"

Die Forscher haben einen neuen Test entwickelt, den sie CHAIN nennen. Stell dir das wie einen virtuellen Spielplatz vor, der von der Schwerkraft und den Gesetzen der Physik gesteuert wird.

In diesem Spielplatz gibt es zwei Hauptarten von Aufgaben:

  1. Die interlockenden Puzzles (wie alte chinesische Holzschlösser): Das ist wie ein riesiges, dreidimensionales Rätsel, bei dem Teile ineinander verhakt sind. Um ein Teil herauszunehmen, musst du erst drei andere Teile in einer ganz bestimmten Reihenfolge bewegen. Wenn du einen Schritt falsch machst, klemmt alles fest.
  2. Das Stapeln (wie Tetris, aber in 3D und mit Schwerkraft): Du musst verschiedene Klotzformen in eine Kiste packen. Wenn du einen großen, schweren Klotz zu früh in die Ecke legst, passt später kein kleiner Klotz mehr hinein, und der Turm fällt um.

Der Clou: Die KI muss hier nicht nur schauen, sondern tun. Sie muss einen Plan machen, einen Schritt ausführen, schauen, was passiert, und dann ihren Plan anpassen. Es ist ein Gespräch mit der Physik.

3. Was haben die Forscher herausgefunden?

Sie haben die besten KI-Modelle der Welt (die „Superhirne" von OpenAI, Google, Anthropic etc.) in diesen Spielplatz geschickt. Das Ergebnis war ernüchternd:

  • Sie sind gut im Sehen, aber schlecht im Fühlen: Die KIs können die Teile auf dem Bild perfekt erkennen. Aber sobald es darum geht, zu verstehen, warum ein Teil nicht weitergeht, scheitern sie.
  • Sie verlieren den Überblick: Bei einfachen Aufgaben schaffen sie es manchmal. Aber bei komplexen Puzzles (wie dem „Luban-Schloss") verlieren sie den Faden. Sie versuchen Dinge, die physikalisch unmöglich sind (z. B. durch ein anderes Teil hindurchgleiten), oder sie vergessen, dass ein früherer Schritt den Weg für den nächsten versperrt hat.
  • Die „Weltmodelle" (Video-KIs) sind noch schlimmer: Die Forscher haben auch KI-Modelle getestet, die Videos erstellen sollen. Als sie gebeten wurden, ein Video zu generieren, in dem ein Schloss zerlegt wird, halluzinierten sie komplett. Die Teile verschwanden, wurden zu anderen Formen oder durchdrangen sich wie Geister. Es war, als würde ein Kind versuchen, ein komplexes Mechanismus zu zeichnen, ohne zu verstehen, wie Zahnräder funktionieren.

4. Die große Lektion: „Sehen" reicht nicht für „Handeln"

Die wichtigste Erkenntnis dieser Studie ist wie folgt:

Ein KI-Modell kann ein Foto von einem Turm perfekt beschreiben, aber es kann den Turm nicht bauen.

Bisher haben wir gedacht, wenn eine KI genug Bilder sieht, versteht sie die Welt. CHAIN zeigt uns, dass das nicht stimmt. Um die physische Welt zu verstehen, muss eine KI nicht nur Bilder analysieren, sondern die Regeln des Spiels (Schwerkraft, Reibung, Kollision) in ihrem „Gehirn" verinnerlichen.

Zusammenfassung in einem Satz

Die Forscher haben einen neuen, sehr schwierigen Test gebaut, der zeigt, dass unsere aktuellsten KI-Modelle zwar brillante Beobachter sind, aber noch keine echten Handwerker, die verstehen, wie man Dinge in der echten, physikalischen Welt bewegt und zusammenbaut.

Es ist der Unterschied zwischen jemandem, der ein Kochbuch auswendig lernt, und jemandem, der tatsächlich in der Küche steht, die Zutaten riecht und merkt, dass der Topf zu heiß ist, bevor er verbrennt. Die KIs können das Kochbuch lesen, aber sie stehen noch nicht in der Küche.

Erhalten Sie solche Paper in Ihrem Posteingang

Personalisierte tägliche oder wöchentliche Digests passend zu Ihren Interessen. Gists oder technische Zusammenfassungen, in Ihrer Sprache.

Digest testen →