When Silence Is Golden: Can LLMs Learn to Abstain in Temporal QA and Beyond?

Dit artikel introduceert een nieuwe trainingspipeline die Chain-of-Thought-supervisie combineert met versterkingslering om taalsmodellen beter te leren om bij tijdsgebonden vragen af te zien van het geven van een antwoord als ze onzeker zijn, waardoor ze betrouwbaarder en nauwkeuriger worden dan bestaande modellen zoals GPT-4o.

Xinyu Zhou, Chang Jin, Carsten Eickhoff, Zhijiang Guo, Seyed Ali Bahrainian

Gepubliceerd 2026-03-05
📖 5 min leestijd🧠 Diepgaand

Each language version is independently generated for its own context, not a direct translation.

Stel je voor dat je een zeer slimme, maar soms wat overmoedige robot hebt die alles over de wereld lijkt te weten. Deze robot is een Grote Taalmodel (LLM). Het probleem is: deze robot durft bijna nooit toe te geven dat hij het niet weet. Als je hem een vraag stelt waar het antwoord niet in zijn "hoofd" staat, of als de informatie verouderd is, verzint hij vaak een mooi, vloeiend verhaal. Dit noemen we hallucineren.

In deze paper onderzoeken de auteurs hoe we deze robot kunnen leren om te zeggen: "Ik weet het niet, ik ga hier niet op antwoorden." Dit noemen ze abstention (onthouding). Ze doen dit vooral met vragen over de tijd (temporele vragen), zoals: "Wie was de echtgenoot van Anna Karina in 1966?" Als de robot vergeten is dat ze in 1965 gescheiden waren, geeft hij een fout antwoord in plaats van te zeggen dat de vraag onbeantwoordbaar is.

Hier is de uitleg van hun onderzoek, vertaald naar begrijpelijke taal met een paar creatieve vergelijkingen:

1. Het Probleem: De "Alwetende" Robot die Verkeerd Zit

Stel je voor dat je een robot vraagt: "Wie was de burgemeester van Amsterdam in 1990?"

  • De oude robot: Zegt direct: "Jan Jansen!" (terwijl het eigenlijk Piet Pietersen was, of de informatie gewoon niet beschikbaar is). Hij durft niet te twijfelen.
  • De ideale robot: Zegt: "Ik heb geen betrouwbare informatie over dat specifieke jaar, dus ik kan dit niet beantwoorden."

De auteurs tonen aan dat zelfs de slimste robots (zoals GPT-4o) hier nog slecht in zijn. Ze zijn zo gewend om "antwoorden" te geven, dat ze liever een fout antwoord geven dan stil te vallen.

2. De Oplossing: Leren "Nee" zeggen met een Trainingsplan

De auteurs proberen de robot niet alleen te programmeren, maar hem te trainen om dit gedrag aan te leren. Ze gebruiken twee hoofdmethoden:

Methode A: De "Strenge Leraar" (SFT - Supervised Fine-Tuning)

Stel je voor dat je de robot een boek vol voorbeelden geeft.

  • Voorbeeld: "Vraag: Wie was de president in 1800? Antwoord: Ik weet het niet."
  • Voorbeeld: "Vraag: Wie was de president in 2020? Antwoord: Joe Biden."

De robot leert hieruit door het na te doen. Maar de paper laat zien dat dit de robot juist te zelfverzekerd maakt. Hij leert de woorden van het antwoord, maar niet het gevoel van twijfel. Hij wordt als een student die de antwoorden uit zijn hoofd leert, maar niet begrijpt wanneer hij moet stoppen met gokken.

Methode B: De "Speltrainer" (RL - Reinforcement Learning)

Dit is de echte doorbraak in dit onderzoek. In plaats van alleen voorbeelden te geven, spelen ze een spelletje met de robot.

  • Het spel: De robot krijgt een vraag.
  • De beloning:
    • Als hij het juiste antwoord geeft: +1 punt.
    • Als hij het niet weet en zegt "Ik weet het niet": +1 punt (hij wordt beloond voor eerlijkheid!).
    • Als hij een verzonnen antwoord geeft: 0 punten (en een boete).

De robot probeert dan via trial-and-error (proberen en fouten maken) de maximale score te halen. Dit is als een speler die leert dat het beter is om niet te gokken in een kansspel als de kaarten slecht zijn, omdat je dan meer punten behoudt op de lange termijn.

3. Het Verbazingwekkende Resultaat: De Kleine Robot wint

Het meest opvallende is wat ze ontdekten:

  • Ze gebruikten een heel klein model (slechts 1,5 miljard parameters, wat klein is voor AI-standaarden).
  • Ze trainden deze kleine robot met de "Speltrainer"-methode (RL) en gaven hem eerst wat voorbeelden van hoe je stap-voor-stap nadenkt (Chain-of-Thought).
  • Het resultaat: Deze kleine, getrainde robot presteerde beter dan de gigantische, dure GPT-4o! Hij gaf vaker het juiste antwoord én hij gaf vaker eerlijk toe als hij het niet wist.

De les: Een klein model dat goed getraind is om na te denken en eerlijk te zijn, is beter dan een groot model dat alleen maar "weet" hoe het moet klinken.

4. Wat werkt wel en wat niet?

De auteurs deden veel experimenten met verschillende hulpmiddelen:

  • Extra informatie geven (zoals een kennisgrafiek): Dit hielp niet echt. Het was alsof je de robot een dik naslagwerk geeft, maar hij blijft toch de verkeerde pagina's lezen.
  • Stap-voor-stap denken (Chain-of-Thought): Dit was cruciaal. De robot moest eerst "denken" (een denkproces schrijven) voordat hij antwoordde. Dit hielp hem om de valkuilen te zien.
  • De verhouding van vragen: Als je de robot te veel vragen geeft waar hij "Nee" moet zeggen, leert hij te snel en zegt hij bij alles "Nee". Als je te weinig "Nee"-vragen geeft, leert hij het niet. Het is een delicate balans, net als het bakken van een cake: te veel suiker en het is te zoet, te weinig en het is smakeloos.

Samenvatting in één zin

Deze paper laat zien dat we grote taalmodellen niet alleen slimmer kunnen maken, maar ze vooral betrouwbaarder kunnen maken door ze te belonen voor het durven zeggen "Ik weet het niet", en dat zelfs kleine, slim getrainde modellen hierin beter zijn dan de grootste modellen die we nu hebben.

De belangrijkste boodschap: Soms is stilte (of het zeggen "Ik weet het niet") goud waard, en dat moeten we onze AI's leren.