Spatial-DISE: A Unified Benchmark for Evaluating Spatial Reasoning in Vision-Language Models

Dit paper introduceert Spatial-DISE, een unificerend benchmark en dataset die is gebaseerd op een cognitieve taxonomie om de ruimtelijke redeneerprestaties van Vision-Language modellen te evalueren en aan te tonen dat deze nog een aanzienlijke kloof vertonen met menselijk vermogen, vooral bij complexe dynamische taken.

Xinmiao Huang, Qisong He, Zhenglin Huang, Boxuan Wang, Zhuoyun Li, Guangliang Cheng, Yi Dong, Xiaowei Huang

Gepubliceerd 2026-02-25
📖 4 min leestijd☕ Koffiepauze-leesvoer

Each language version is independently generated for its own context, not a direct translation.

🧠 Ruimtelijk Denken: Waarom AI nog steeds verdwaalt in een doolhof

Stel je voor dat je een robot bouwt die een kamer moet opruimen. Die robot moet niet alleen zien waar de stoel staat, maar ook begrijpen wat er gebeurt als je de stoel omgooit, of hoe een platte doos in een 3D-kastje verandert als je hem vouwt. Dit noemen we ruimtelijk redeneren.

Tot nu toe waren de tests voor deze robots (die we "Vision-Language Models" of VLM's noemen) een beetje als een kind dat alleen maar plaatjes bekijkt zonder er echt over na te denken. Ze konden wel zeggen "dat is een auto", maar niet of die auto onder de brug past als hij erdoorheen rijdt.

De auteurs van dit paper (van de Universiteit van Liverpool) zeggen: "Het is tijd voor een eerlijke test." Ze hebben Spatial-DISE bedacht.

1. De Nieuwe Test: Vier Hoeken van Denken

Stel je een vierkante kaart voor, verdeeld in vier kwadranten. De auteurs zeggen dat ruimtelijk denken uit vier soorten bestaat, net als een vierkant met vier hoeken:

  • Statisch vs. Dynamisch (Stilstaan vs. Bewegen):
    • Statisch: Kijk naar een foto en zeg waar de beker staat. (Dit is makkelijk).
    • Dynamisch: Stel je voor dat je de beker omgooit, of dat je een papieren vliegtuig vouwt. Je moet het in je hoofd "bewegen". (Dit is moeilijk).
  • Intrinsiek vs. Extrinsic (Van binnen vs. Van buiten):
    • Intrinsiek: Kijk naar één object. Hoe passen de onderdelen bij elkaar? (Bijv. "Hoe ziet deze kubus eruit als ik hem draai?").
    • Extrinsic: Kijk naar de relatie tussen objecten. (Bijv. "Is de kat links of rechts van de auto?").

Het probleem: De oude tests waren als een zwembad waar je alleen maar in kon staan (Statisch). De nieuwe test, Spatial-DISE, is een zwembad waar je ook moet kunnen zwemmen, duiken en springen (Dynamisch).

2. De "Robot-Fabriek" (De Data)

Een van de grootste problemen bij het testen van AI is dat er niet genoeg moeilijke vragen zijn. Mensen zijn goed in het bedenken van puzzels, maar dat kost tijd.

De auteurs hebben een automatische fabriek gebouwd (met een programma genaamd Blender).

  • Hoe het werkt: Stel je voor dat je een robot hebt die willekeurige 3D-vormen maakt, ze vouwt, gaten in papt, en dan vraagt: "Welke vorm krijg je als je dit weer openvouwt?"
  • Het resultaat: Ze hebben 12.000 nieuwe puzzels gemaakt. Het is alsof ze een hele bibliotheek met nieuwe doolhoven hebben gebouwd in plaats van maar één. Ze hebben ook een "kwaliteitscontrole" toegevoegd, zodat ze zeker weten dat er maar één goed antwoord is.

3. De Grote Teleurstelling (De Resultaten)

Ze hebben 32 van de slimste AI-modellen ter wereld (zoals GPT-4o, Gemini, Claude) op deze nieuwe test gezet.

Het nieuws: De AI's zakten door de vloer.

  • Mensen: Haalden gemiddeld 77% goed.
  • AI: Haalde gemiddeld maar 28% goed. Dat is nauwelijks beter dan raden!

Waarom?
De onderzoekers keken naar de fouten en ontdekten drie grote zwaktes:

  1. Geen regels in het hoofd: De AI's weten niet dat als je een kubus vouwt, de achterkant niet tegelijkertijd de voorkant kan zijn. Ze vergeten de "wetten van de fysica".
  2. Geen geheugen voor beweging: Bij een "vouw-en-prik" puzzel (vouwen, een gat prikken, weer openvouwen) vergeten ze na stap 1 al wat er in stap 2 gebeurde. Het is alsof ze een film kijken, maar na elke seconde hun geheugen wissen.
  3. Kijken zonder te begrijpen: Ze zien de plaatjes, maar ze "rekenen" niet in hun hoofd. Ze proberen te raden op basis van patronen, in plaats van echt te simuleren wat er gebeurt.

4. Kunnen we ze trainen?

Ze hebben de AI's een paar keer laten oefenen met hun nieuwe 12.000 puzzels.

  • Het resultaat: Het werd iets beter, maar ze haalden nog steeds niet de menselijke niveau's.
  • De les: Het helpt om te oefenen, maar de AI's leren niet op dezelfde manier als mensen. Mensen bouwen een "wereldmodel" op in hun hoofd; AI's proberen alleen patronen te herkennen.

Conclusie in één zin

Spatial-DISE is de nieuwe, eerlijke test die laat zien dat AI's nog steeds slecht zijn in het "in hun hoofd bewegen" van objecten. Ze kunnen foto's zien, maar ze kunnen nog niet echt ruimtelijk denken zoals een mens dat doet.

Het is alsof we een auto hebben die perfect kan rijden op een rechte weg (statisch), maar volledig vastloopt zodra er een bocht of een obstakel komt (dynamisch). De onderzoekers hebben nu de kaart getekend om te zien waar we die auto moeten repareren.

Ontvang papers zoals deze in je inbox

Gepersonaliseerde dagelijkse of wekelijkse digests op basis van jouw interesses. Gists of technische samenvattingen, in jouw taal.

Probeer Digest →