Distributed Partial Information Puzzles: Examining Common Ground Construction Under Epistemic Asymmetry

Dit paper introduceert de Distributed Partial Information Puzzle (DPIP) en een bijbehorend multimodaal dataset om de uitdagingen van het modelleren van gemeenschappelijke grond onder epistemische asymmetrie te onderzoeken, waarbij blijkt dat zowel moderne grote taalmodellen als axiomatische benaderingen op basis van dynamische epistemische logica moeite hebben met het nauwkeurig bijhouden van taakvoortgang en geloofsstaten.

Yifan Zhu, Mariah Bradford, Kenneth Lai, Timothy Obiso, Videep Venkatesha, James Pustejovsky, Nikhil Krishnaswamy

Gepubliceerd 2026-03-06
📖 4 min leestijd☕ Koffiepauze-leesvoer

Each language version is independently generated for its own context, not a direct translation.

Stel je voor dat je met drie vrienden een enorme LEGO-toren moet bouwen, maar er is een groot probleem: niemand van jullie ziet hetzelfde.

Elk van de drie "ontwerpers" (de directors) heeft een foto van slechts één kant van de toren. De ene ziet de voorkant, de andere de linkerkant, en de derde de rechterkant. De vierde persoon, de "bouwer" (builder), heeft geen foto's. Diegene moet alleen maar luisteren, kijken naar wat de anderen met hun handen en stem doen, en de toren bouwen.

Als ze niet perfect met elkaar communiceren, wordt de toren een rommelige brij. Als ze wel goed samenwerken, ontstaat er een perfect bouwwerk dat aan alle drie de foto's voldoet.

Dit is precies wat dit wetenschappelijke artikel onderzoekt. Hier is een simpele uitleg van de belangrijkste punten:

1. Het Grote Probleem: "Deelkennis"

In het echte leven werken mensen vaak samen terwijl ze verschillende stukjes van de puzzel hebben. Soms weten ze niet wat de ander weet. Dit noemen de onderzoekers epistemische asymmetrie (een fancy woord voor: "jij weet iets wat ik niet weet, en andersom").

Om samen te werken, moeten ze een gemeenschappelijke basis (common ground) bouwen. Dat is het moment waarop iedereen zegt: "Oké, nu weten wij allemaal dat die blauwe steen hier moet komen."

2. De Experimenten: Een LEGO-puzzel

De onderzoekers hebben een spel bedacht genaamd DPIP (Distributed Partial Information Puzzle).

  • De Opdracht: Drie ontwerpers en één bouwer.
  • De Uitdaging: De ontwerpers mogen de stenen niet aanraken. Ze moeten de bouwer vertellen wat hij moet doen, maar ze zien alleen hun eigen kant van de toren. Ze moeten dus gissen, vragen stellen en met hun handen wijzen om de bouwer te helpen.
  • De Data: Ze hebben 10 groepen mensen dit laten doen en alles op video gezet: wat ze zeiden, waar ze naar keken, en hoe ze met hun handen bewogen.

3. De Test: Kunnen Computers dit?

Nu komt het interessante deel. De onderzoekers wilden weten of moderne Kunstmatige Intelligentie (AI) dit kan. Ze gaven de AI twee dingen:

  1. De video's en transcripties van wat de mensen zeiden en deden.
  2. De vraag: "Wat denken jullie dat de toren eruitziet op dit moment?" of "Wat is de gezamenlijke mening van de groep?"

Ze testten twee soorten AI:

  • De "Grote Taalmodellen" (LLMs): Dit zijn slimme computers zoals de ones die je misschien kent (zoals de voorlopers van wat wij nu gebruiken). Ze zijn goed in taal, maar kunnen ze ook begrijpen wat er gebeurt in een groep?
  • De "Logische Regel-AI": Een computerprogramma dat werkt met strikte logica-regels (als iemand zegt X, dan is Y waar).

4. De Resultaten: De Menselijke AI faalt

Het nieuws is niet zo goed voor de moderne AI:

  • De Grote Taalmodellen hadden het moeilijk. Ze konden vaak niet goed volgen wat er gebeurde. Ze raakten de draad kwijt als het gesprek lang duurde. Ze konden soms niet begrijpen dat als iemand met de hand naar links wees, het eigenlijk over de rechterkant van de toren ging (vanuit een ander perspectief).
  • De Logische Regel-AI deed het verrassend goed. Omdat deze AI strikte regels volgt, kon hij soms beter voorspellen hoe de toren eruitzag dan de "slimme" taalmodellen.
  • De "Gemeenschappelijke Basis" is lastig. De AI's konden vaak niet goed inschatten wat de groep samen dacht. Ze dachten vaak dat de groep het ergens over eens was, terwijl de groep eigenlijk in de war was.

5. Waarom is dit belangrijk?

Dit onderzoek laat zien dat AI nog niet klaar is voor complexe samenwerking.

  • Voorbeeld: Als je een robot wilt die samenwerkt met mensen in een ziekenhuis of een fabriek, moet die robot niet alleen kunnen praten, maar ook begrijpen wat de ander weet en wat de ander niet weet.
  • De les: Mensen zijn heel goed in het "lezen tussen de regels" en het begrijpen van gebaren en context. Computers zijn daar nog heel slecht in, vooral als iedereen een ander stukje van de puzzel heeft.

Samenvatting in één zin

Dit papier laat zien dat het voor moderne computers nog heel erg moeilijk is om samen te werken met mensen die verschillende informatie hebben, omdat ze moeite hebben om te begrijpen wat de anderen weten, denken en bedoelen met hun woorden en gebaren.

Het is alsof je een computer vraagt om een LEGO-toren te bouwen terwijl je hem alleen beschrijft vanuit één hoek, en hij moet raden hoe de rest eruitziet... en tot nu toe is die computer nogal verward!