Hallucination, Monofacts, and Miscalibration: An Empirical Investigation

Dit artikel presenteert het eerste empirische onderzoek naar de relatie tussen hallucinaties, monofacten en miscalibratie in taalmodellen, waarbij wordt aangetoond dat selectieve herhaling van een klein deel van de trainingsdata hallucinaties tot 40% kan verminderen zonder de nauwkeurigheid te schaden, wat de universaliteit van deduplicatiebeleid uitdaagt.

Miranda Muqing Miao, Michael Kearns

Gepubliceerd 2026-03-04
📖 4 min leestijd☕ Koffiepauze-leesvoer

Each language version is independently generated for its own context, not a direct translation.

Samenvatting: Waarom AI soms liegt en hoe we dat kunnen stoppen

Stel je voor dat een kunstmatige intelligentie (AI) een biograaf is die een levensverhaal schrijft. Soms is deze biograaf zo zelfverzekerd dat hij dingen verzint die er nooit hebben bestaan. Hij zegt bijvoorbeeld: "John Smith werd geboren in Seattle in 1982," terwijl John Smith eigenlijk in 1990 in Amsterdam is geboren. Dit noemen we hallucinaties: het AI-model zegt dingen die klinken als waarheid, maar die volledig verzonnen zijn.

Deze nieuwe studie van Miranda Miao en Michael Kearns onderzoekt waarom dit gebeurt en, nog belangrijker, hoe we het kunnen voorkomen zonder de intelligentie van de AI te verpesten.

Hier is de uitleg in simpele taal, met een paar handige vergelijkingen.

1. Het probleem: De "Eenzame Feiten"

Stel je een enorme bibliotheek voor met alle feiten die de AI heeft geleerd.

  • Sommige feiten staan er duizenden keren in (bijv. "De aarde draait om de zon").
  • Andere feiten staan er maar één keer in (bijv. "De favoriete kleur van de burgemeester van een klein dorpje is paars").

De onderzoekers ontdekten dat de AI vooral liegt over die eenzame feiten (in het Engels monofacts). Omdat de AI die feiten maar één keer heeft gezien, weet hij niet zeker of ze waar zijn. Hij twijfelt. En omdat hij moet praten, verzint hij er een antwoord op dat klinkt als waarheid, maar dat eigenlijk een leugen is.

De vergelijking:
Stel je voor dat je een quiz moet doen.

  • Als je een vraag honderd keer hebt geoefend, weet je het antwoord zeker.
  • Als je een vraag maar één keer hebt gezien, gok je. En als je gokt, maak je vaak fouten. De AI doet precies hetzelfde: bij eenzame feiten gokt hij, en dat is waar de hallucinaties vandaan komen.

2. De theorie: Waarom "perfecte eerlijkheid" niet werkt

Er was een wiskundige theorie die zei: "Als een AI model perfect eerlijk is (in het Engels gecalibreerd), moet het soms liegen."
Dit klinkt gek, maar het heeft te maken met hoe de AI zijn vertrouwen meet. Als de AI perfect eerlijk is, moet hij ook zeggen: "Ik weet het niet zeker" bij die eenzame feiten. Maar als hij dat doet, raakt hij in de war en begint hij te verzinnen.

De onderzoekers ontdekten een verrassende oplossing: We moeten de AI een beetje "onbetrouwbaar" maken.

3. De oplossing: De "Herhalingstruc"

Hoe los je dit op? Door de AI opzettelijk een beetje te "verwarren" met een slimme truc: selectief herhalen.

Stel je voor dat je een student moet leren voor een examen.

  • De oude manier: Je geeft de student een lijst met 10.000 feiten, elk één keer. De student leert ze allemaal een beetje, maar bij de moeilijke, eenzame feiten twijfelt hij.
  • De nieuwe manier: Je pakt een klein stukje van die lijst (bijvoorbeeld 5% van de feiten) en laat de student die 10 keer herhalen.

Je geeft de student dus extra veel oefening met een paar specifieke feiten. Hierdoor wordt de student oververzekerd over die feiten. Hij zegt niet langer: "Ik denk dat dit waar is," maar: "Dit is 100% waar!"

Het magische effect:
Door die extra zekerheid bij de herhaalde feiten, verandert de hele "zekerheids-schaal" van de AI. Hij wordt zo zelfverzekerd over wat hij wel weet, dat hij minder snel gaat gokken over wat hij niet zeker weet. Hij stopt met het verzinnen van leugens.

In de studie bleek dat dit de hallucinaties met wel 40% verlaagde, terwijl de AI net zo goed bleef presteren op de feiten die hij al kende.

4. Waarom dit belangrijk is

Vroeger dachten experts dat je alle dubbele feiten uit de trainingsdata moest halen (duplicaten verwijderen), omdat je dacht dat herhaling de AI dom maakt (overfitting).

Deze studie zegt: Nee, dat is niet altijd waar.
Soms helpt het juist om een paar feiten bewust te herhalen. Het is alsof je een spreekwoordelijke "rode vlag" plant bij de feiten die belangrijk zijn, zodat de AI daar extra op let en niet gaat verzinnen.

Conclusie in één zin

Deze studie laat zien dat we AI niet hoeven te dwingen om "perfect eerlijk" te zijn om hem betrouwbaarder te maken; soms helpt het juist om hem een beetje "overmoedig" te maken over een paar feiten, zodat hij stopt met het verzinnen van leugens over de rest.

Kortom: Door een klein beetje "herhalingstherapie" toe te passen op de leerstof van de AI, maken we hem minder geneigd tot liegen, zonder dat hij zijn intelligentie verliest.