Diagnosing Retrieval Bias Under Multiple In-Context Knowledge Updates in Large Language Models

Dit onderzoek toont aan dat grote taalmodellen bij meerdere opeenvolgende kennisupdates in de context last hebben van een toenemende herhalingbias, vergelijkbaar met het AB-AC-interferentieparadigma uit de cognitieve psychologie, wat leidt tot een sterke daling in de nauwkeurigheid voor de nieuwste feiten ondanks een hoge nauwkeurigheid voor de oorspronkelijke informatie.

Boyu Qiao, Sean Guo, Xian Yang, Kun Li, Wei Zhou, Songlin Hu, Yunya Song

Gepubliceerd 2026-03-16
📖 5 min leestijd🧠 Diepgaand

Each language version is independently generated for its own context, not a direct translation.

Stel je voor dat je een zeer slimme, maar soms wat verwarde assistent hebt. Je vertelt hem een feit, bijvoorbeeld: "De president van Italië is Mario." Vervolgens vertel je hem de volgende dag: "Oh, wacht, ik heb het verkeerd, de president is nu Luigi." En de dag daarna: "Nee, sorry, het is eigenlijk Sofia."

Als je deze assistent nu vraagt: "Wie is de president van Italië?", wat is dan zijn antwoord? Is het de laatste naam (Sofia), of blijft hij vastzitten in de oude herinneringen (Mario)?

Dit is precies waar dit onderzoek over gaat. De auteurs hebben ontdekt dat grote taalmodellen (zoals de AI die je misschien gebruikt) een groot probleem hebben met het bijwerken van informatie in hun "geheugen" als er vele updates achter elkaar komen.

Hier is een simpele uitleg van wat ze hebben gedaan en ontdekt, met behulp van een paar creatieve vergelijkingen:

1. Het Probleem: De "Verkeerde Weg" in het Geheugen

In de psychologie bestaat er een fenomeen dat AB-AC interferentie heet.

  • Stel: Je leert dat A (een sleutel) opent B (een kast).
  • Later leer je dat dezelfde sleutel A nu C (een andere kast) opent.
  • Als je later de sleutel ziet, vechten de twee herinneringen (B en C) om de controle. Vaak wint de oude herinnering (B), zelfs als je de nieuwe (C) juist hebt geleerd.

De onderzoekers hebben dit idee op AI toegepast. Ze gaven de AI een "cue" (een vraag, zoals "Wie is de president?") en gaven diezelfde vraag vele keren met een nieuw antwoord.

  • Update 1: President is X.
  • Update 2: President is Y.
  • Update 3: President is Z.
  • ...
  • Update 50: President is W.

2. De Ontdekking: "Oude Herinneringen" winnen

Ze ontdekten iets verrassends en een beetje zorgwekkends:

  • Als je de AI vraagt: "Wie was de eerste president in deze lijst?", is hij perfect. Hij onthoudt het begin heel goed.
  • Maar als je vraagt: "Wie is de laatste (huidige) president?", gaat het fout. Hoe meer updates er zijn, hoe slechter hij de nieuwste informatie onthoudt.

De Analogie:
Stel je voor dat je een lange rij postbodes hebt die een brief doorgeven.

  • De eerste postbode (de oudste informatie) is heel sterk en roept zijn naam luid en duidelijk.
  • De laatste postbode (de nieuwste informatie) staat helemaal achterin de rij. Door de drukte en de geluiden van de eerdere postbodes, wordt zijn stem overstemd. De AI "hoort" de oude namen harder dan de nieuwe.

Ze noemen dit een retrieval bias (een vertekening bij het ophalen van informatie). De AI is beter in het terugroepen van het verleden dan in het vasthouden van het heden als er veel updates zijn.

3. Waarom gebeurt dit? (De "Binnenkant" van de AI)

De onderzoekers keken niet alleen naar wat de AI zei, maar ook naar hoe hij "dacht" (naar zijn interne signalen). Ze zagen drie dingen:

  1. Aandacht: De AI kijkt vaak naar de verkeerde plekken in de tekst. Het is alsof hij naar de eerste pagina van een boek kijkt in plaats van de laatste, terwijl het antwoord daar staat.
  2. Verwarring: Bij fouten zijn de interne signalen van de AI heel "plat". Het is alsof de AI twijfelt en geen sterke keuze kan maken. Hij weet niet zeker welk antwoord het juiste is.
  3. Zekerheid: Soms is de AI te zeker van zijn fout. Hij zegt met 100% zekerheid: "Het is Mario!" terwijl het Sofia is.

4. Probeer het op te lossen (De "Trucs")

De onderzoekers probeerden verschillende manieren om de AI te helpen, geïnspireerd op hoe mensen hun geheugen trainen:

  • Herhaling: "Zeg het maar een paar keer tegen jezelf."
  • Vergeten: "Vergeet de oude namen, onthoud alleen de nieuwe."
  • Verbinding: "Zie de updates als één verhaal, niet als losse stukjes."

Het resultaat?
Deze trucs hielpen een klein beetje, maar niet genoeg. De AI bleef worstelen met de nieuwste informatie. Het is alsof je iemand probeert te helpen die een zware last draagt; je kunt hem een stok geven (een prompt), maar hij kan de last (de vele updates) nog steeds niet goed dragen.

Conclusie: Wat betekent dit voor ons?

De boodschap van dit onderzoek is helder:
Huidige AI-modellen zijn geweldig in het onthouden van feiten, maar ze zijn niet goed in het bijwerken van hun kennis als er veel nieuwe informatie achter elkaar komt. Ze blijven vaak vastzitten in het verleden.

Voor bedrijven die AI gebruiken (bijvoorbeeld voor nieuwsberichten of juridische updates) is dit een waarschuwing: vertrouw niet blindelings op de AI als het gaat om de allerlaatste update. De AI kan je vertellen wat er gisteren was, maar hij vergeet misschien wat er vandaag is gebeurd.

Kort samengevat: De AI heeft een "kortetermijngeheugen" dat te snel volloopt met oude herinneringen, waardoor de nieuwste informatie verdwijnt in de chaos. We hebben nog geen perfecte oplossing gevonden om dit probleem volledig op te lossen.

Ontvang papers zoals deze in je inbox

Gepersonaliseerde dagelijkse of wekelijkse digests op basis van jouw interesses. Gists of technische samenvattingen, in jouw taal.

Probeer Digest →