The Dunning-Kruger Effect in Large Language Models: An Empirical Study of Confidence Calibration

Deze empirische studie toont aan dat grote taalmodellen, vergelijkbaar met het Dunning-Kruger-effect bij mensen, vaak een onterecht hoog zelfvertrouwen vertonen wanneer hun prestaties laag zijn, wat belangrijke implicaties heeft voor de veilige inzet van deze modellen.

Sudipta Ghosh, Mrityunjoy Panday

Gepubliceerd 2026-03-12
📖 4 min leestijd☕ Koffiepauze-leesvoer

Each language version is independently generated for its own context, not a direct translation.

Stel je voor dat je een groep leerlingen op een proefwerk zet. Sommige leerlingen zijn echte experts: ze weten precies wat ze kunnen, en ze weten ook heel goed wat ze niet weten. Ze zeggen: "Ik ben 90% zeker van dit antwoord," en ze hebben gelijk.

Dan heb je een andere groep: de leerlingen die eigenlijk heel weinig weten, maar denken dat ze de slimste van de klas zijn. Ze zeggen met een glimlach: "Ik ben 100% zeker!" terwijl hun antwoord compleet fout is.

In de psychologie heet dit het Dunning-Kruger-effect: mensen met weinig kennis overschatten hun eigen vaardigheden enorm.

Deze paper onderzoekt of kunstmatige intelligentie (AI) hetzelfde gedrag vertoont. De onderzoekers hebben gekeken of slimme computers (Large Language Models) net zo'n "verkeerd zelfbeeld" hebben als die onzekere leerlingen.

Hier is de samenvatting in gewone taal, met een paar leuke vergelijkingen:

1. Het Experiment: Een AI-olympiade

De onderzoekers hebben vier van de slimste AI-modellen ter wereld uitgenodigd voor een groot toernooi. Ze kregen 24.000 vragen, variërend van natuurkunde en geschiedenis tot logische raadsels.

De modellen moesten niet alleen het antwoord geven, maar ook een zekerheidspercentage noemen (van 0% tot 100%).

  • 100% betekent: "Ik weet het zeker, dit is waar."
  • 0% betekent: "Ik heb geen idee."

Het doel was om te kijken: Hoe goed is hun zelfvertrouwen in verhouding tot hun feitelijke kennis?

2. De Resultaten: De "Zekere Dwaas" vs. de "Voorzichtige Expert"

De uitkomsten waren verrassend en soms eng.

De "Zekere Dwaas" (Kimi K2)
Dit model was een echte teleurstelling. Het had maar 23% van de vragen goed. Dat is alsof je op een meerkeuzetoets met 4 opties, willekeurig kiest en net iets beter scoort dan puur geluk.

  • Het probleem: Ondanks dat het bijna alles fout had, zei dit model met een stralend gezicht: "Ik ben 96% zeker van mijn antwoord!"
  • De analogie: Stel je een beginnende kok voor die een bord met brandend vlees en rauwe aardappelen op tafel zet, en zegt: "Dit is een Michelin-sterrenmaaltijd, ik ben er 100% zeker van!" Dat is precies wat Kimi K2 deed. Het is zo overtuigd van zijn eigen onwetendheid, dat het gevaarlijk is.

De "Voorzichtige Expert" (Claude Haiku 4.5)
Dit model deed het het beste. Het had 75% van de vragen goed.

  • Het voordeel: Dit model wist precies wanneer het zeker was en wanneer het twijfelde. Als het een moeilijke vraag kreeg, zei het: "Ik ben niet zo zeker," en als het een makkelijke vraag kreeg, zei het: "Ja, dit weet ik zeker."
  • De analogie: Dit is als een ervaren piloot die zegt: "De motor werkt perfect, we kunnen vliegen," maar bij slecht weer zegt: "Ik twijfel, we moeten misschien wachten." Hij liegt niet over zijn vaardigheden.

De "Stijve Robot" (Gemini-modellen)
De twee Gemini-modellen zaten ergens tussenin, maar hadden een vreemd kenmerk: ze waren altijd extreem zeker, of ze nu gelijk hadden of niet.

  • De analogie: Het is alsof een robot die altijd "Ik weet het zeker!" roept, zelfs als hij tegen een muur rijdt. Hij past zijn zelfvertrouwen niet aan aan de situatie.

3. Waarom is dit gevaarlijk?

Stel je voor dat je deze AI's gebruikt in een ziekenhuis of bij een rechter.

  • Als de "Zekere Dwaas" (Kimi K2) een verkeerd medisch advies geeft, maar zegt: "Ik ben 96% zeker!", dan zal de dokter het advies waarschijnlijk opvolgen. Dat kan levens kosten.
  • Als de "Voorzichtige Expert" (Claude) twijfelt, zegt hij: "Ik ben niet zeker, vraag het aan een mens." Dat is veilig.

Het gevaar zit hem in het vertrouwen. Als een computer zegt dat hij het weet, maar hij heeft het niet, en hij is daar 100% zeker van, dan is dat een enorme valkuil.

4. Wat leren we hieruit?

De onderzoekers concluderen dat AI's het Dunning-Kruger-effect echt kunnen hebben.

  • Hoe slechter een model presteert, hoe zekerder het zich vaak voelt.
  • Hoe beter een model presteert, hoe meer het zijn onzekerheid durft te tonen.

De les voor ons:
We mogen niet blindelings vertrouwen op wat een AI zegt. We moeten niet alleen kijken naar of het antwoord goed is, maar ook naar hoe zeker de AI klinkt. Als een AI heel zeker klinkt over een onderwerp waar hij eigenlijk niets van weet, moeten we op onze hoede zijn.

Kortom: Luister niet alleen naar wat de AI zegt, maar ook naar hoe zeker hij klinkt. Soms is die zekerheid de grootste leugen.