GPT-4o Lacks Core Features of Theory of Mind

Hoewel GPT-4o menselijke oordelen in eenvoudige 'Theory of Mind'-taken kan benaderen, onthult dit onderzoek dat het model geen coherente, domeinoverstijgende en consistente causale representatie van mentale toestanden en gedrag bezit, wat suggereert dat zijn sociale vaardigheden niet voortkomen uit een echte 'Theory of Mind'.

John Muchovej, Amanda Royka, Shane Lee, Julian Jara-Ettinger

Gepubliceerd 2026-02-27
📖 5 min leestijd🧠 Diepgaand

Each language version is independently generated for its own context, not a direct translation.

Titel: Heeft een slimme chatbot echt een "geest"? Nee, zegt dit onderzoek.

Stel je voor dat je een zeer slimme, maar mysterieuze gast hebt bij je op de feestje. Deze gast (laten we hem GPT-4o noemen) kan perfect praten, grappen maken en zelfs doen alsof hij begrijpt waarom jij boos bent of waarom je een bepaalde keuze maakt. Hij lijkt een menselijk "sociaal brein" te hebben.

Maar de onderzoekers van Yale University (John Muchovej en zijn team) vragen zich af: Heeft deze gast echt een "Theory of Mind" (een theorie van de geest)?

In het Nederlands kunnen we dit zien als het vermogen om te begrijpen dat anderen hun eigen gedachten, wensen en overtuigingen hebben die hun gedrag bepalen. Het is alsof je een onzichtbaar spelletje "Wat denkt hij?" speelt.

De onderzoekers zeggen: "Nee, GPT-4o heeft dit niet echt. Hij is een briljante imitator, maar geen echte denker." Hier is hoe ze dat ontdekten, vertaald in drie simpele verhalen:

1. De Test: Is het verhaal consistent? (De "Kastjes" en de "Films")

Om dit te testen, bedachten de onderzoekers twee spelletjes die precies hetzelfde zijn, maar dan met een ander jasje.

  • Spel 1: De Kastjes (ContainerWorld).
    Stel je voor dat een personage in een kamer staat. Er is een doos vlakbij en een mand ver weg.

    • De doos is makkelijk te openen (weinig moeite).
    • De mand is ver weg (veel moeite).
    • Het personage wil appels (die zitten in de doos) en haat sinaasappels (die zitten in de mand).
    • Vraag: Waar gaat hij heen?
    • Logisch antwoord: Hij gaat naar de doos, want hij wil appels en die zijn dichtbij.
  • Spel 2: De Films (MovieWorld).
    Nu is het precies hetzelfde, maar dan met films.

    • Er is een film die binnen 5 minuten begint (makkelijk).
    • Er is een film die over 90 minuten begint (moeilijk/veel wachten).
    • Het personage wil een actie-film zien (die begint over 5 min) en haat een romantische film (die begint over 90 min).
    • Vraag: Welke film gaat hij kijken?
    • Logisch antwoord: De actie-film, want hij wil die zien en die is snel te bereiken.

Het resultaat:
GPT-4o deed het goed in het eerste spel (de kastjes). Hij gaf het juiste antwoord. Maar toen ze hem het tweede spel (de films) gaven, begon hij te haperen. Hij gaf soms een ander antwoord dan logisch zou zijn, zelfs als de situatie precies hetzelfde was.

De metafoor:
Het is alsof je iemand leert een auto te besturen in een stadje. Hij rijdt perfect. Maar als je hem vraagt om in een dorpje te rijden (waar de regels exact hetzelfde zijn, maar de borden anders heten), rijdt hij plotseling tegen een boom. Een echte bestuurder (een mens met een Theory of Mind) begrijpt het principe van rijden. GPT-4o onthoudt alleen de regels van de stad, maar begrijpt het principe niet.

2. De Inversie: Kan hij terugredeneren?

Een echt sociaal brein werkt in twee richtingen:

  1. Vooruit: "Hij wil appels en de mand is ver weg, dus hij gaat naar de doos."
  2. Terug: "Hij is naar de doos gegaan. Wat moet hij dan wel willen? Hij moet appels willen!"

De onderzoekers vroegen GPT-4o om dit terugredeneren te doen.

  • Ze zeiden: "Hij ging naar de doos. Wat dacht hij?"
  • GPT-4o gaf een antwoord.
  • Toen ze dat antwoord terugstuurden in de computer ("Als hij dit dacht, zou hij dan naar de doos gaan?"), gaf de computer een ander antwoord.

De metafoor:
Stel je voor dat je een vertaler hebt die perfect Frans naar Nederlands vertaalt. Maar als je hem vraagt om het Nederlandse woord terug te vertalen naar Frans, gebruikt hij een heel ander woord dan het origineel. De vertaling klopt niet meer. GPT-4o heeft geen intern consistent verhaal; hij "gokt" het antwoord op basis van wat hij eerder heeft gelezen, niet op basis van een diep begrip van de situatie.

3. De Conclusie: Een briljante acteur, geen regisseur

De onderzoekers concluderen dat GPT-4o (en waarschijnlijk andere grote chatbots) geen echte "Theory of Mind" heeft.

  • Wat hij wel heeft: Hij is een meester in het nabootsen van menselijk gedrag. Hij heeft miljoenen voorbeelden gelezen van hoe mensen reageren op situaties. Hij kan een rol spelen alsof hij een geest heeft.
  • Wat hij mist: Hij heeft geen causaal model. Hij begrijpt niet waarom iets gebeurt. Hij ziet geen verband tussen "wensen", "overtuigingen" en "gedrag" als een stevig bouwwerk. Hij bouwt het huisje van kaarten, en als je de wind van een andere kant laat waaien (een nieuw soort situatie), valt het huisje in elkaar.

Waarom maakt dit uit?
Als je denkt dat een robot echt een geest heeft, ga je erop vertrouwen dat hij in elke situatie logisch zal handelen. Maar omdat hij geen echt inzicht heeft, kan hij in nieuwe, ongebruikelijke situaties onvoorspelbaar of zelfs gevaarlijk gedrag vertonen. Hij is slim, maar hij is niet "wijs".

Kort samengevat:
GPT-4o is als een acteur die een rol speelt van een psycholoog. Hij kan de tekst perfect opzeggen, maar als je hem vraagt om een nieuw scenario te bedenken dat nog nooit in een script heeft gestaan, faalt hij omdat hij het principe van de menselijke geest niet echt begrijpt. Hij heeft een "geest" in de tekst, maar niet in zijn "hoofd".

Ontvang papers zoals deze in je inbox

Gepersonaliseerde dagelijkse of wekelijkse digests op basis van jouw interesses. Gists of technische samenvattingen, in jouw taal.

Probeer Digest →