Do Language Models Know Theo Has a Wife? Investigating the Proviso Problem

Dit onderzoek toont aan dat taalmodellen, hoewel ze in hun antwoorden vaak overeenkomen met menselijke oordelen over de 'proviso'-problematiek in conditionele zinnen, in plaats van diepgaand pragmatisch redeneren vooral vertrouwen op oppervlakkige patroonherkenning.

Tara Azin, Daniel Dumitrescu, Diana Inkpen, Raj Singh

Gepubliceerd 2026-03-10
📖 5 min leestijd🧠 Diepgaand

Each language version is independently generated for its own context, not a direct translation.

Stel je voor dat je een zeer slimme, maar soms wat oppervlakkige robot hebt die alles wat hij leest, letterlijk neemt. Hij is getraind op miljarden boeken en artikelen, maar begrijpt de onzichtbare regels van het menselijk gesprek niet altijd.

Dit onderzoek, getiteld "Do Language Models Know Theo Has a Wife?" (Weten taalsystemen dat Theo een vrouw heeft?), gaat over precies zo'n robot en een specifiek taalkundig raadsel: de "proviso-problematiek".

Hier is de uitleg in simpele taal, met een paar creatieve vergelijkingen.

1. Het Raadsel: De "Als-Deze" Zin

Stel je voor dat iemand zegt:

"Als Theo haat sonnetten, dan haat zijn vrouw ze ook."

Wat betekent dit voor de robot?

  • De strikte logica (de theorie): De robot denkt: "Oké, we weten pas of de vrouw ze haat als Theo ze haat. Dus we weten nog niet of Theo überhaupt een vrouw heeft. Misschien is hij alleenstaand."
  • De menselijke intuïtie (wat wij doen): Jij en ik denken direct: "Wacht even, als je zegt 'zijn vrouw', dan moet hij wel een vrouw hebben, of niet? Of hij sonnetten haat of niet, hij heeft een vrouw."

Dit verschil tussen wat de formele logica zegt en wat mensen voelen dat waar is, heet het proviso-probleem. Het is alsof de robot een boek leest en de regels van de grammatica volgt, maar de "onzichtbare context" mist die mensen automatisch invullen.

2. De Experimenten: Een Test met Vals Speelgoed

De onderzoekers hebben een enorme test gemaakt (een dataset van 8.500 zinnen) om te kijken of de robots (zoals RoBERTa, DeBERTa, LLaMA en Gemma) dit menselijke gevoel hebben. Ze hebben de robots verschillende soorten "vals speelgoed" gegeven om te zien hoe ze reageren:

  • Test A: De Structuur. Ze veranderden de zin een beetje (bijvoorbeeld: "Als Theo en zijn vriend...").
    • Resultaat: De robots deden het prima. Ze zagen dat de zin nog steeds over een vrouw ging. Ze waren als een goede leraar die de hoofdlijn ziet, zelfs als de zinnen complexer worden.
  • Test B: De Betekenis (De valstrik). Dit was de echte test. Ze veranderden het woord dat de aanwijzing gaf.
    • Origineel: "Als Theo een duiker is, gebruikt hij zijn duikpak." (Duidelijk: hij heeft een pak).
    • Vervalst: "Als Theo een duiker is, brengt Johns vriend haar duikpak mee." (Hier is de link verbroken: het pak is niet van Theo).
    • Resultaat: De robots vielen in de val! Ze zeiden nog steeds: "Ja, Theo heeft een duikpak," omdat ze keken naar de positie van het woord "duikpak" in de zin, niet naar de betekenis. Ze waren als een kind dat zegt: "Ik zie het woord 'pak', dus het moet waar zijn," zonder na te denken over wie het pak bezit.

3. De Grote Ontdekking: Robots zijn "Oppervlakkige Kijkers"

De belangrijkste conclusie van het onderzoek is verrassend:
De robots doen alsof ze slim zijn, maar ze zijn eigenlijk oppervlakkige patroonzoekers.

  • De Metafoor van de Magneet: Stel je voor dat de robots een magneet hebben die alleen trekt op specifieke woorden (zoals "zijn vrouw" of "weer"). Als die woorden in de buurt staan, denken ze: "Aha, dit is een conclusie!" Ze kijken niet echt naar de verhaallijn.
  • De "Overgeleerde" Gewoonte: In een deel van de test leerden de robots een verkeerde regel. Ze dachten: "Als het woord 'weer' (again) in de zin staat en de zinnen lijken op elkaar, dan is het antwoord 'Nee'." Ze hadden dit zo goed uit hun trainingstijd onthouden, dat ze het zelfs toepasten op zinnen waar het niet gold. Het is alsof een leerling die de formule voor een wiskundeklas heeft uit het hoofd geleerd, die formule probeert toe te passen op een vraag over geschiedenis.

4. Waarom is dit belangrijk?

Vroeger dachten we: "Als een robot 99% van de vragen goed beantwoordt, is hij slim."
Dit onderzoek zegt: "Nee, hij is slim in het herkennen van patronen, maar niet in het begrijpen van de wereld."

De robots weten niet echt dat Theo een vrouw heeft. Ze weten alleen dat in hun trainingsdata, als er "zijn vrouw" in een zin staat, het antwoord vaak "ja" is. Ze missen de pragmatische vaardigheid: het vermogen om te begrijpen wat er echt bedoeld wordt in een gesprek, niet alleen wat er letterlijk staat.

Samenvatting in één zin

De robots zijn als een zeer getrainde acteur die alle teksten uit zijn hoofd kent en perfect reageert op de cues, maar als je de tekst een klein beetje verandert, beseft hij niet dat de betekenis anders is geworden; hij blijft gewoon spelen alsof het script hetzelfde is.

De les voor de toekomst: Om te weten of AI echt "slim" is, moeten we niet alleen kijken naar hoe goed hij scoort op een toets, maar ook kijken waar hij naar kijkt terwijl hij denkt. En tot nu toe kijken ze nog te veel naar de oppervlakte en te weinig naar de diepte.