Do LLMs Share Human-Like Biases? Causal Reasoning Under Prior Knowledge, Irrelevant Context, and Varying Compute Budgets

Dit onderzoek toont aan dat grote taalmodellen (LLMs) minder menselijke collider-bias vertonen en meer op regels gebaseerd redeneren dan mensen, hoewel chain-of-thought-prompting hun robuustheid tegen irrelevante context kan verbeteren.

Hanna M. Dettki, Charley M. Wu, Bob Rehder

Gepubliceerd 2026-03-16
📖 5 min leestijd🧠 Diepgaand

Each language version is independently generated for its own context, not a direct translation.

Titel: Zijn AI's slimme detectives of stijve regelsvolgers? Een verhaal over oorzaken, gevolgen en menselijke fouten.

Stel je voor dat je een detective bent die moet oplossen hoe een misdaad is gebeurd. Er zijn twee mogelijke daders (C1 en C2) en één misdaad (E). Als je de misdaad ziet gebeuren, probeer je te raden: "Was het dader A, dader B, of misschien allebei?"

Dit is precies wat dit onderzoek doet, maar dan met Grote Taalmodellen (LLMs) – de slimme AI's zoals wij die nu gebruiken – en mensen. De onderzoekers wilden weten: Denken AI's net als mensen, of zijn ze heel anders?

Hier is de samenvatting in gewone taal, met een paar leuke vergelijkingen:

1. De Proef: Een Vage Verhaal

De onderzoekers gaven mensen en AI's een raadsel. Het verhaal was opzettelijk onvolledig. Ze zeiden: "Stel je voor dat X en Y kunnen leiden tot Z. We zien Z gebeuren. Hoe waarschijnlijk is het dat X de oorzaak was?"

Ze gaven geen exacte cijfers of regels. Ze wilden zien of de AI's en mensen hun eigen "buikgevoel" gebruikten of strikte regels volgden. Ze testten dit met 20 verschillende AI's en een groep studenten.

2. Het Grote Verschil: De "Open Wereld" vs. De "Sluitende Kring"

Dit is het belangrijkste punt van het onderzoek:

  • Mensen (De Open Wereld): Als mensen een raadsel krijgen, denken ze vaak: "Nou, er is vast nog iets anders dat ik niet zie. Misschien was er een derde dader, of het weer, of toeval." Mensen zijn voorzichtig. Ze zeggen zelden: "Het is 100% zeker dat X het was, want er zijn altijd andere dingen mogelijk." Ze laten ruimte voor onbekende factoren.
  • AI's (De Sluitende Kring): De meeste AI's zijn als een strenge robot die alleen kijkt naar wat er op het papier staat. Als het verhaal zegt "X en Y kunnen Z veroorzaken", dan denken de AI's: "Oké, dat is alles wat er is. Er is geen derde dader." Ze volgen de regels heel strikt. Ze vergeten niet te denken aan dingen die niet genoemd worden.

Vergelijking:

  • Een mens is als een detective die zegt: "Het ziet eruit als dader A, maar ik kan me voorstellen dat er een onbekende speler was die ik niet heb gezien."
  • Een AI is als een computer die zegt: "Volgens de wetten in dit boek is het dader A. Er staat nergens dat er een onbekende speler is, dus die bestaat niet."

3. De Menselijke Foutjes (En waarom AI's ze niet maken)

Mensen maken bekende fouten in hun redeneren:

  • De "Verklaring Weg" Fout: Als je weet dat dader A het gedaan heeft, denken mensen soms: "Oh, dan kan dader B het niet gedaan hebben," zelfs als dat logisch niet klopt. Mensen zijn hierin vaak verward.
  • De "Koppeling" Fout: Mensen denken soms dat als dader A aanwezig is, dader B ook wel aanwezig moet zijn, ook al hebben ze niets met elkaar te maken.

Het verrassende nieuws: De AI's maakten deze menselijke fouten niet!
De AI's waren juist heel logisch en volgden de wiskundige regels perfect. Ze deden precies wat je zou verwachten van een slimme rekenmachine. Mensen zijn vaak "slordig" in hun logica, maar AI's zijn "stijf" en correct.

4. Wat gebeurt er als je de AI afleidt?

De onderzoekers deden twee dingen om te testen hoe sterk de AI's waren:

  1. Vage Woorden: Ze veranderden de woorden in het verhaal naar onzin (bijv. in plaats van "geld" en "economische crisis" gebruikten ze "X8jzP" en "Y9kLm").
  2. Afblijven: Ze voegden heel veel onzin tekst toe aan het verhaal om de AI af te leiden.

Resultaat:

  • Sommige oudere of kleinere AI's raakten in de war. Ze begonnen dan net als mensen te denken of maakten fouten.
  • De nieuwste, sterkste AI's (zoals de nieuwste versies van Gemini) waren onvermurwbaar. Het maakte hen niets uit of de woorden onzin waren of of er veel afleiding was. Ze bleven hun logische regels volgen.

5. De Oplossing: "Denk Stap voor Stap"

De onderzoekers ontdekten iets spannends: als je de AI vraagt om eerst stap voor stap na te denken (een techniek die "Chain-of-Thought" heet), worden ze nog beter.

  • Zonder instructie: "Geef me het antwoord." -> Soms raakt de AI in de war door afleiding.
  • Met instructie: "Denk eerst stap voor stap na, en geef dan het antwoord." -> De AI wordt veel stabieler en maakt minder fouten, zelfs als het verhaal vol onzin zit.

Conclusie: Zijn AI's dan beter dan mensen?

Niet per se "beter", maar anders.

  • Wanneer zijn AI's geweldig? Als je een situatie hebt waar je geen fouten wilt maken en waar je strikte regels wilt volgen (bijvoorbeeld in de wet of bij medische berekeningen). Ze zijn niet vatbaar voor de "buikgevoel" fouten die mensen maken.
  • Wanneer zijn AI's gevaarlijk? In de echte wereld, waar dingen vaak onduidelijk zijn en waar "onbekende factoren" een rol spelen. Omdat AI's zo strikt zijn, kunnen ze in de war raken als de realiteit niet past in hun strakke regels. Ze missen het menselijke vermogen om te zeggen: "Misschien is er iets anders gaande dat we niet zien."

Kortom: AI's zijn als perfecte, stijve regelsvolgers. Mensen zijn als flexibele, maar soms slordige detectives. Voor de beste beslissingen hebben we misschien beide nodig: de AI om de regels te volgen, en de mens om te denken aan de dingen die niet op het papier staan.

Ontvang papers zoals deze in je inbox

Gepersonaliseerde dagelijkse of wekelijkse digests op basis van jouw interesses. Gists of technische samenvattingen, in jouw taal.

Probeer Digest →