On the Superimposed Noise Accumulation Problem in Sequential Knowledge Editing of Large Language Models

Dit paper introduceert DeltaEdit, een methode die het probleem van superimposed noise-accumulatie bij sequentiële kennisbewerking van grote taalmodellen aanpakt door dynamische orthogonale beperkingen toe te passen om conflicten tussen kennis te verminderen en de bewerkingsprestaties aanzienlijk te verbeteren.

Ding Cao, Yuchen Cai, Yuqing Huang, Xuesong He, Rongxi Guo, Guiquan Liu, Guangzhong Sun

Gepubliceerd 2026-04-01
📖 4 min leestijd☕ Koffiepauze-leesvoer

Each language version is independently generated for its own context, not a direct translation.

🧠 Het probleem: Het "Verstopte Boek" van de AI

Stel je een groot taalmodel (zoals een slimme chatbot) voor als een enorme bibliotheek met miljoenen boeken. Deze bibliotheek bevat alle kennis die de computer ooit heeft geleerd. Soms is een boek echter verouderd of bevat het een fout. Bijvoorbeeld: een boek zegt dat de iPhone 15 de nieuwste is, terwijl we nu de iPhone 16 hebben.

Om dit te fixen, willen we één specifiek boek in de bibliotheek aanpassen zonder de rest van de bibliotheek te vernietigen. Dit noemen we "kennis bewerken" (Knowledge Editing).

🛠️ De oude aanpak: De "Kleefband-methode"

Vroeger probeerden onderzoekers dit te doen door de parameters van het model direct aan te passen. Het was alsof je met kleefband een nieuwe pagina in het oude boek plakte.

  • Bij één keer plakken: Werkt prima. De nieuwe informatie zit erin.
  • Bij duizenden keren plakken: Als je dit duizenden keren doet (sequentiële bewerking), wordt het boek een rommelpot. De kleefbandplakken raken elkaar, de pagina's beginnen te krullen, en uiteindelijk is het boek zo beschadigd dat je er niets meer van begrijpt. De computer begint dan onzin te praten of herhaalt woorden eindeloos.

De auteurs van dit paper noemen dit het "Superimposed Noise Accumulation Problem". In het Nederlands: Het probleem van de opstapeling van ruis.

🔍 Wat gaat er precies mis? (De Analogie)

Stel je voor dat je in een drukke kamer (het computermodel) een gesprek voert.

  1. De juiste kennis: Je wilt zeggen: "De hoofdstad van Frankrijk is Parijs."
  2. De ruis: Door de duizenden eerdere aanpassingen (de plakken) beginnen er echter ook andere, verkeerde stemmen te fluisteren in je hoofd. Misschien fluistert iemand: "Nee, het is Londen" of "Het is Berlijn".

Bij elke nieuwe bewerking worden er meer verkeerde stemmen toegevoegd. Na verloop van tijd is de ruis (de verkeerde stemmen) zo hard dat je de juiste stem (Parijs) niet meer kunt horen. Het model raakt in de war en geeft een verkeerd antwoord, of het systeem crasht volledig.

De onderzoekers ontdekten twee hoofdoorzaken van deze ruis:

  1. Verkeerde activering: Het model denkt dat het antwoord moet geven op een vraag die hij niet hoort te beantwoorden.
  2. Overlapping: De nieuwe kennis "botst" tegen de oude kennis aan, net als twee auto's die in dezelfde parkeerplaats proberen te parkeren.

✨ De oplossing: DeltaEdit (De "Ordehandhaver")

De auteurs hebben een nieuwe methode bedacht die DeltaEdit heet. Je kunt dit zien als een slimme ordehandhaver in de bibliotheek.

In plaats van zomaar een nieuwe pagina te plakken, doet DeltaEdit het volgende:

  1. De "Orthogonale" Strategie: Stel je voor dat je een nieuwe pagina toevoegt, maar je zorgt ervoor dat deze pagina nooit in de weg staat van de andere pagina's. Het is alsof je de nieuwe pagina op een heel specifieke hoek plaatst (90 graden), zodat hij de bestaande boeken niet raakt.
  2. Dynamische Controle: De ordehandhaver kijkt continu naar hoe rommelig het wordt. Als het te rommelig begint te worden (te veel ruis), past hij de strategie direct aan om de chaos te beperken.

Door deze methode te gebruiken, blijft de bibliotheek netjes. De nieuwe informatie komt er perfect in, zonder dat de oude kennis wordt vernietigd of dat er ruis ontstaat.

📊 Wat zeggen de resultaten?

De onderzoekers hebben dit getest op twee grote modellen (GPT-2 en Llama 3) met duizenden bewerkingen achter elkaar.

  • Oude methoden: Na 3.000 bewerkingen waren de modellen vaak "gecrasht" of gaven ze onzin.
  • DeltaEdit: Hield de modellen gezond en scherp. Het presteerde 16,8% beter dan de beste bestaande methode.

Het belangrijkste is dat DeltaEdit niet alleen de nieuwe kennis goed opslaat, maar ook zorgt dat het model zijn andere vaardigheden (zoals redeneren of grammatica) niet verliest. Het is alsof je een bibliotheek renoveert zonder dat de boeken over de rest van de wereld vergeten.

💡 Samenvatting in één zin

DeltaEdit is een slimme manier om een AI constant bij te werken met nieuwe feiten, zonder dat de computer door de hoeveelheid aanpassingen in de war raakt en onzin gaat praten; het houdt de "ruis" onder controle zodat de AI scherp blijft.

Verdrinkt u in papers in uw vakgebied?

Ontvang dagelijkse digests van de nieuwste papers die bij uw onderzoekswoorden passen — met technische samenvattingen, in uw taal.

Probeer Digest →