Characterizing Memorization in Diffusion Language Models: Generalized Extraction and Sampling Effects

Dit artikel presenteert een systematische theoretische en empirische analyse van memorisatie in diffusion-taalmodellen, waarbij wordt aangetoond dat een verhoogde steekproefresolutie de kans op exacte extractie van trainingsdata vergroot, maar dat deze modellen onder bepaalde omstandigheden aanzienlijk minder gevoelig zijn voor het lekken van persoonsgegevens dan autoregressieve modellen.

Xiaoyu Luo, Wenrui Yu, Qiongxiu Li, Johannes Bjerva

Gepubliceerd 2026-03-04
📖 4 min leestijd☕ Koffiepauze-leesvoer

Each language version is independently generated for its own context, not a direct translation.

Samenvatting: Hoe "geheugen" werkt in nieuwe taalmodellen

Stel je voor dat je twee verschillende soorten kunstenaars hebt die teksten schrijven. De ene is een traditionele schrijver (de "Autoregressive" modellen, of ARMs) en de andere is een restaurator (de nieuwe "Diffusion" modellen, of DLMs).

Deze wetenschappers van de Universiteit van Aalborg hebben onderzocht hoe goed deze kunstenaars hun "oefenmateriaal" (de data waarmee ze zijn getraind) onthouden en soms zelfs letterlijk overnemen. Dat is belangrijk, want als een model een privé-e-mailadres of telefoonnummer van iemand uit zijn training herhaalt, is dat een privacy-risico.

Hier is wat ze hebben ontdekt, vertaald in alledaags taalgebruik:

1. De twee manieren van werken

  • De Traditionele Schrijver (ARM): Deze schrijft woord voor woord, van links naar rechts. Hij kijkt alleen naar wat hij al heeft geschreven om het volgende woord te kiezen. Het is als het invullen van een kruiswoordraadsel waarbij je alleen de vakjes links mag gebruiken om het volgende woord te raden.
  • De Restaurator (DLM): Deze werkt anders. Stel je voor dat je een schilderij hebt dat volledig met witte vlekken (maskers) is bedekt. De restaurator kijkt naar het hele schilderij tegelijk en begint langzaam de witte vlekken weg te werken. Hij kan op elk moment beslissen welke vlek hij eerst oplost. Hij gebruikt een "ruis" (stochastisch proces) om te raden wat er onder de vlek zit, en doet dit stap voor stap totdat het beeld helder is.

2. Het grote geheim: Hoeveel stappen je neemt

De belangrijkste ontdekking van dit onderzoek is een verrassende regel over de stapgrootte (of "resolutie") van de restaurator.

  • Snel werken (Weinig stappen): Als de restaurator in één grote sprong probeert alle witte vlekken tegelijk weg te werken, is hij minder geneigd om de tekst letterlijk uit zijn geheugen te halen. Hij maakt meer creatieve keuzes.
  • Langzaam werken (Veel stappen): Als de restaurator heel gedetailleerd te werk gaat en de vlekken één voor één, heel langzaam oplost, wordt hij steeds meer als de traditionele schrijver.
  • De conclusie: Hoe meer stappen je neemt om de tekst te genereren, hoe groter de kans dat het model exact dezelfde zin teruggeeft als in zijn training. Als je de stappen oneindig klein maakt (één woord per stap), gedraagt de nieuwe "restaurator" zich precies als de oude "traditionele schrijver".

Analogie:
Stel je voor dat je een geheim onthult.

  • Als je het snel vertelt (in één grote zin), vergeet je misschien details of verdraai je het een beetje.
  • Als je het lettergreep voor lettergreep heel langzaam uitspreekt, is de kans groter dat je precies hetzelfde zegt als de originele tekst, inclusief alle fouten en geheimen.

3. Privacy: Wie is veiliger?

De onderzoekers hebben gekeken naar PII (Persoonlijk Identificeerbare Informatie), zoals e-mailadressen en telefoonnummers.

  • Ze hebben gekeken of de modellen deze gevoelige gegevens konden "lekken" als je ze een klein stukje van de zin gaf (bijvoorbeeld: "Het e-mailadres van de directeur was...").
  • Het resultaat: De nieuwe "restaurator" (DLM) lekt veel minder privé-informatie dan de traditionele schrijver (ARM), zelfs als ze even groot zijn.
  • Zelfs als je de restaurator dwingt om heel langzaam te werken (wat normaal gesproken het risico verhoogt), blijft hij veiliger dan de traditionele schrijver.

4. Waarom is dit belangrijk?

Vroeger dachten we dat alle AI-modellen hetzelfde gevaar liepen om geheime data te onthullen. Dit papier laat zien dat de manier waarop je de AI vraagt om te werken (de "stapgrootte") een enorme invloed heeft.

  • Als je een AI-model gebruikt dat heel snel en grof werkt, is het risico dat het je privé-gegevens onthult kleiner.
  • Als je het dwingt om super-precies en stap-voor-stap te werken, wordt het gevaar groter.

Kortom:
De onderzoekers hebben een nieuwe manier bedacht om te meten hoe goed AI-modellen hun training onthouden. Ze hebben bewezen dat de nieuwe "diffusie"-modellen (die werken als een restaurator die een schilderij oplost) over het algemeen veiliger zijn voor privacy dan de oude modellen. Maar ze waarschuwen ook: als je die nieuwe modellen te gedetailleerd laat werken, kunnen ze net zo gevaarlijk worden als de oude.

Het is een beetje zoals een slot: een nieuw soort slot (DLM) is over het algemeen moeilijker te kraken dan een oud slot (ARM), maar als je de sleutel (de instellingen) verkeerd gebruikt, kun je het toch open krijgen.