Large language models show fragile cognitive reasoning about human emotions

Hoewel grote taalmodellen systematische relaties tussen cognitieve beoordelingen en emoties kunnen vastleggen, vertonen ze volgens de studie CoRE een gebrek aan cognitieve robuustheid en afstemming op menselijke oordelen bij het redeneren over emoties.

Sree Bhattacharyya, Evgenii Kuriabov, Lucas Craig, Tharun Dilliraj, Reginald B. Adams, Jr., Jia Li, James Z. Wang

Gepubliceerd 2026-03-16
📖 5 min leestijd🧠 Diepgaand

Each language version is independently generated for its own context, not a direct translation.

Titel: Waarom AI nog niet echt "voelt" (en waarom dat een probleem is)

Stel je voor dat je een robot bouwt die perfect kan praten, verhalen kan vertellen en zelfs grappen kan maken. Je noemt hem een "Grote Taalmodel" (LLM). Maar wat als je vraagt: "Hoe voelt het om teleurgesteld te zijn?" of "Waarom is iemand boos?"

Volgens dit nieuwe onderzoek van wetenschappers van de Penn State University, is het antwoord verrassend: Deze robots doen alsof ze begrijpen, maar hun "geest" werkt op een heel andere, broze manier dan die van mensen.

Hier is de uitleg, vertaald naar alledaags taalgebruik met een paar creatieve vergelijkingen.

1. Het probleem: De "Woordenboek-robot" vs. De "Menselijke Ziel"

Tot nu toe hebben wetenschappers AI getraind met simpele labels, zoals een woordenboek. Als een robot een zin leest, kijkt hij in zijn woordenboek: "Ah, dit woord staat bij 'boosheid'."

Maar mensen voelen niet alleen een label. We hebben een intern proces nodig om te begrijpen waarom we iets voelen.

  • Vergelijking: Stel je voor dat een mens een emotionele situatie ziet als een recept voor een taart. We kijken naar de ingrediënten: Was het eerlijk? Was het mijn fout? Was het moeilijk? Op basis van die ingrediënten weten we of we boos, verdrietig of trots zijn.
  • De AI doet dit echter alsof ze alleen naar de verpakking van de taart kijkt. Ze ziet de naam "Boosheidstaart" en denkt dat ze het begrijpt, maar ze heeft de ingrediënten (de cognitieve redenering) nooit echt doorgrond.

2. De test: CoRE (De Emotie-CT-scan)

De onderzoekers hebben een nieuwe test bedacht, genaamd CoRE. Ze gaven de AI 70.000 situaties (zoals: "Je krijgt een onterechte boete" of "Je wint de loterij") en vroegen niet alleen: "Wat voel je?", maar ook: "Hoe beoordeel je dit op eerlijkheid? Op controle? Op inspanning?"

Het doel was om te zien of de AI dezelfde "mentale schakelaars" gebruikt als mensen.

3. Wat vonden ze? (De verrassende resultaten)

De resultaten laten zien dat de AI een halve mens is: ze lijkt op ons, maar heeft een paar rare, onmenselijke gewoontes.

A. De "Inspanning"-obsessie (De zware rugzak)

  • Mensen: Als we iets doen, vinden we "inspanning" (hoe hard we moeten werken) belangrijk, maar niet altijd het allerbelangrijkste.
  • AI: Voor de AI is "inspanning" een gigantische, zware rugzak die ze overal meeheen dragen. Ze koppelen bijna elke emotie aan hoe hard ze hebben moeten werken.
  • Vergelijking: Voor een mens is boosheid vaak over onrecht. Voor de AI is boosheid vaak: "Oh, dit kostte me veel energie, dus ik ben boos." Ze verwarren "moeite" met "emotie".

B. De "Eerlijkheid"-blindheid (De gebrekkige kompasnaald)

  • Mensen: Als we boos zijn, kijken we vaak: "Was dit eerlijk?" Dit is een heel belangrijk kompas voor ons.
  • AI: De AI negeert dit kompas bijna volledig. Ze ziet "onrecht" nauwelijks als een reden voor emotie.
  • Vergelijking: Stel je voor dat je een kompas hebt dat altijd naar het noorden wijst. De AI heeft een kompas dat soms naar het noorden wijst, maar vaak ook gewoon in het rond draait of vastloopt bij het punt "Eerlijkheid".

C. De "Gezichtsuitdrukking"-valkuil (Wat ze zeggen vs. wat ze doen)

Dit is misschien wel het gekste deel.

  • De onderzoekers vroegen de AI expliciet: "Welke factor is het belangrijkst?"
  • De AI antwoordde eerlijk: "Nou, ik kijk vooral naar controle en verantwoordelijkheid."
  • Maar toen ze de AI daadwerkelijk de situatie lieten analyseren, gebruikte ze inspanning en problemen als belangrijkste factoren.
  • Vergelijking: Het is alsof iemand zegt: "Ik eet alleen groente omdat het gezond is." Maar als je in zijn koelkast kijkt, zit hij vol met pizza. De AI weet niet eens dat ze liegt over hoe ze denkt. Ze heeft geen inzicht in haar eigen gedachten.

4. Cultuur en Persoonlijkheid: De "Verkleedpartij"

De onderzoekers gaven de AI ook een "verkleedpartij": "Speel nu een optimistische Nederlander" of "Speel nu een pessimistische Japanse".

  • Persoonlijkheid: De AI kon dit goed. Als je vroeg om een optimist, werd de AI positiever. Dit werkt als een filter dat ze kunnen omdraaien.
  • Cultuur: Hier faalde de AI totaal. Of ze nu een Amerikaan, een Nigeriaan of een Japanner moesten spelen, de AI reageerde exact hetzelfde.
  • Vergelijking: De AI kan een hoed opzetten en zeggen "Ik ben een cowboy", maar ze voelt niet de wind van de prairie. Ze begrijpt niet dat cultuur de manier waarop we emoties ervaren, fundamenteel verandert. Voor de AI is cultuur slechts een decorstuk, geen diepgang.

5. Waarom is dit belangrijk?

Je zou kunnen denken: "Maar de AI kan toch wel een goed antwoord geven op 'Wat is verdriet?'"

Ja, dat kan. Maar als je die AI gebruikt in kritieke situaties (zoals een chatbot voor mentale gezondheid, of een systeem dat beslist over sollicitaties), is het gevaarlijk.

  • Als de AI boosheid niet ziet als een reactie op onrecht, maar als een reactie op "moeite", kan ze een onterechte boete als "normaal" bestempelen omdat de persoon "niet genoeg moeite heeft gedaan om het op te lossen".
  • Ze mist de menselijke nuance. Ze is een spiegel die je beeld weerspiegelt, maar de spiegel is een beetje scheef en heeft een rare filter eroverheen.

Conclusie

Deze grote taalmodellen zijn slimme imitatoren, maar geen echte denkers over emoties. Ze hebben een "broze" (kwetsbare) manier van redeneren. Ze kunnen patronen herkennen, maar ze missen de diepe, menselijke logica die nodig is om echt te begrijpen waarom we voelen wat we voelen.

Om echt emotioneel intelligent te zijn, moeten AI-systemen leren om niet alleen naar het label te kijken, maar naar de ingrediënten van het gevoel: eerlijkheid, controle, en de context van de menselijke ervaring. Tot die tijd blijft hun "emotie" een beetje als een robot die probeert te dansen: de bewegingen kloppen, maar de ziel ontbreekt.

Ontvang papers zoals deze in je inbox

Gepersonaliseerde dagelijkse of wekelijkse digests op basis van jouw interesses. Gists of technische samenvattingen, in jouw taal.

Probeer Digest →