Abductive Reasoning with Syllogistic Forms in Large Language Models

Dit artikel onderzoekt de nauwkeurigheid en mogelijke bias van grote taalmodellen in abductief redeneren door syllogismen om te vormen, met als doel het begrip van menselijke en machinecognitie te verbeteren.

Hirohiko Abe, Risako Ando, Takanobu Morishita Kentaro Ozeki, Koji Mineshima, Mitsuhiro Okada

Gepubliceerd 2026-03-09
📖 4 min leestijd☕ Koffiepauze-leesvoer

Each language version is independently generated for its own context, not a direct translation.

Titel: Waarom Slimme Computers Slechter zijn in "Gokken" dan in "Rekenen"

Stel je voor dat je een zeer slimme robot hebt die alles wat hij ooit heeft gelezen in zijn hoofd heeft. Hij is een meester in het oplossen van wiskundepuzzels en het volgen van strikte regels. Maar wat gebeurt er als je hem vraagt om een raadsel op te lossen waarbij hij niet alle stukjes van de puzzel heeft, maar toch een plausibel verhaal moet bedenken?

Dat is precies wat deze studie van onderzoekers van de Universiteit van Keio in Japan onderzoekt. Ze kijken naar hoe grote taalmodellen (zoals de slimme AI's die we vandaag de dag gebruiken) omgaan met twee soorten denken: deductie (rekenen) en abductie (gokken op een verklaring).

Hier is een simpele uitleg van hun ontdekkingen, met wat creatieve metaforen.

1. Twee manieren om te denken: De Rekenaar en de Detective

Om het verschil te begrijpen, laten we twee karakters bedenken:

  • De Rekenaar (Deductie): Dit is het strikte logische denken.

    • Voorbeeld: "Alle mensen die lachen, zijn blij. Deze persoon lacht. Dus, deze persoon is blij."
    • Dit is waterdicht. Als de regels kloppen, is het antwoord 100% zeker. Computers zijn hier vaak heel goed in.
  • De Detective (Abductie): Dit is het denken dat we elke dag gebruiken om verklaringen te vinden voor dingen die we zien. Het is het "beste gokje" doen op basis van beperkte informatie.

    • Voorbeeld: Je ziet een natte straat (Observatie). Je weet dat regen de straat nat maakt (Regel). Wat is de oorzaak?
    • De Detective zegt: "Het regende waarschijnlijk."
    • Maar wacht! Het kan ook zijn dat iemand de straat heeft afgespoten. De Detective moet een verklaring bedenken, niet zomaar een zeker feit.

De onderzoekers wilden weten: Zijn deze slimme AI's ook goede Detectives, of zijn ze alleen maar Rekenaars?

2. Het Experiment: De Omgekeerde Puzzel

De onderzoekers maakten een speciale test. Ze namen bekende logische puzzels (syllogismen) en draaiden ze om.

  • In een normale puzzel geven ze je de regels en de feiten, en vraag je het antwoord.
  • In hun "Abductie-puzzel" gaven ze de regels en het resultaat, en vroegen ze de AI om de oorzaak te raden.

Ze gaven de AI's (zoals GPT-4 en Llama) twee soorten vragen:

  1. Logische vragen: Waar de regels strikt kloppen.
  2. Vragen die botsen met ons gevoel: Waar de regels tegen onze dagelijkse ervaring ingaan (bijvoorbeeld: "Alle taarten in deze bakkerij zijn giftig").

3. De Verbluffende Resultaten

De uitkomsten waren verrassend en een beetje triest voor de AI's:

  • De Rekenaar wint: De AI's waren veel beter in het "rekenen" (deductie) dan in het "gokken" (abductie).
  • De "Niets" Probleem: In de abductie-test waren er vragen waarbij het juiste antwoord was: "Geen van de opties is een goede verklaring." De AI's faalden hier bijna volledig. Ze gaven liever een verkeerd antwoord dan toe te geven dat ze het niet wisten. Het is alsof een detective die geen aanwijzingen heeft, toch maar een verdachte aanwijst in plaats van te zeggen: "Ik heb geen idee."
  • Menselijke Vooroordelen: Net als mensen, lieten de AI's zich beïnvloeden door wat ze "wisten" of "voelden". Als een vraag tegen hun "gezonde verstand" inging (bijvoorbeeld: "Alle bloemen zijn blauw"), werden ze verward en maakten ze meer fouten. Ze konden de logica niet losmaken van hun kennis over de echte wereld.

4. Waarom is dit belangrijk?

Stel je voor dat je een AI gebruikt in een ziekenhuis of in de rechtspraak.

  • Als de AI alleen maar rekenen kan, is hij goed voor het controleren van medicijndoseringen.
  • Maar als de AI detective moet spelen (bijvoorbeeld: "Deze patiënt heeft koorts, wat is de oorzaak?"), dan moet hij kunnen gokken op de beste verklaring.

De studie laat zien dat deze AI's momenteel nog te veel als "rekenaars" werken. Ze worstelen met het bedenken van nieuwe ideeën of het toegeven van onzekerheid. Ze proberen vaak een logisch antwoord te forceren, zelfs als de situatie dat niet toelaat.

Conclusie: De AI moet nog leren "gokken"

De onderzoekers concluderen dat we AI's niet moeten afrekenen op hun fouten in het "gokken" (abductie), omdat ze daarvoor zijn getraind op enorme hoeveelheden tekst waar vaak strikte logica in staat, maar minder vaak het proces van het bedenken van hypotheses.

Het is alsof je een meester in het oplossen van kruiswoordraadsels (rekenen) vraagt om een detectiveverhaal te schrijven (gokken). Hij kent alle woorden, maar het creatieve "gokken" op een plot is nog niet zijn sterkste punt.

Kortom: Deze slimme computers zijn geweldige rekenmachines, maar ze zijn nog geen echte detectives. Ze moeten nog leren hoe ze met onvolledige informatie om moeten gaan en hoe ze eerlijk kunnen zeggen: "Ik heb geen idee, maar hier is een gok."