The Conundrum of Trustworthy Research on Attacking Personally Identifiable Information Removal Techniques

Dit artikel betoogt dat de huidige evaluaties van aanvallen op PII-verwijeringstechnieken door datalekken en contaminatie vertekend zijn, en dat het gebrek aan toegang tot echte privédata het publieke onderzoek verhindert om de werkelijke privacybescherming van deze methoden betrouwbaar te verifiëren.

Sebastian Ochs, Ivan Habernal

Gepubliceerd 2026-03-10
📖 5 min leestijd🧠 Diepgaand

Each language version is independently generated for its own context, not a direct translation.

🕵️‍♂️ De Grote Misverstand: Kan je 'Geheime' Tekst echt veilig maken?

Stel je voor dat je een heel belangrijk, privé dagboek hebt. Je wilt het delen met de wereld, maar je wilt niet dat mensen je naam, adres of geboortedatum zien. Wat doe je? Je plakt zwarte stiftdopjes over die stukjes tekst. Dit noemen we PII-verwijdering (het wegdoen van persoonsgegevens).

De auteurs van dit artikel, Sebastian en Ivan, zeggen: "Wacht even. We denken dat we dit allemaal verkeerd begrijpen."

Ze stellen twee grote vragen:

  1. Zijn de tests die we doen om te zien of deze 'zwarte stiftdopjes' werken, wel eerlijk?
  2. Kunnen we dit wel echt testen zonder dat we toegang hebben tot écht privé-geheimen?

Het antwoord op beide vragen is helaas: Nee.


1. De "Gekke" Tests: Waarom de resultaten liegen

Stel je voor dat je een magiër wilt testen die een kaart uit een stapel verdwijnt. Maar de magiër heeft de kaart al in zijn mouw verstopt voordat de test begint. Dan is het geen magie, maar een trucje.

Zo werkt het nu met de tests op privacy-technologie:

  • Het probleem: Veel onderzoeken die zeggen "Haha, we kunnen de naam weer terugvinden!", doen dit op basis van teksten die de computer al kent.
  • De analogie: Stel, je verwijdert de naam "Emma Watson" uit een tekst over haar leven. Vervolgens vraagt je een slimme computer (een AI) om de naam te raden. De computer raadt "Emma Watson" niet omdat hij slim is en de tekst heeft ontcijferd, maar omdat hij Emma Watson al kent uit zijn geheugen (hij heeft haar naam gelezen in duizenden andere boeken en nieuwsartikelen).
  • De conclusie: De onderzoekers zeggen dat de "aanval" niet faalt omdat de privacy-technologie slecht is, maar omdat de computer de antwoorden al uit zijn hoofd heeft geleerd. Het is alsof je iemand test op geheugen, maar je geeft hem de antwoorden op een briefje in zijn hand.

2. De Onmogelijke Dilemma: Geen Geheime Data, Geen Eerlijke Test

Nu komt het lastige deel. Om echt te weten of de zwarte stiftdopjes werken, moeten we een test doen met écht, nieuw privé-geheimen die de computer nog nooit heeft gezien.

  • De situatie: Als publieke onderzoekers (zoals Sebastian en Ivan) willen ze dit testen. Maar waar halen ze die data vandaan?

    • Optie A: Openbare data. Nee, want die is al openbaar of de computer kent het al.
    • Optie B: Synthetische data (door AI gemaakt). Nee, want AI kan per ongeluk echte namen uit zijn training herhalen, of de data is niet echt genoeg.
    • Optie C: Écht privé data (ziekenhuizen, overheid). Nee, want dat is illegaal om te gebruiken zonder toestemming en ethisch heel gevoelig.
  • De vergelijking: Het is alsof je een slotfabrikant wilt testen op de veiligheid van zijn sloten. Maar je mag geen echte deuren openen, je mag geen echte sleutels stelen, en je mag geen nep-deuren gebruiken omdat die niet echt zijn. Je zit vast in een kamer zonder deuren om te testen.

De auteurs hebben zelfs een officieel verzoek gedaan om met gestolen data te werken (om te zien of ze die weer kunnen "ontgrendelen"), maar hun ethische commissie zei: "Nee, dat is te gevaarlijk en onwettig."

3. Wat hebben ze zelf gedaan? (De kleine proef)

Omdat ze geen echte, grote privé-database kregen, deden ze een kleine proef met twee dingen die waarschijnlijk nog niet in het geheugen van de AI zaten:

  1. Oude, verwijderde PDF's van een Tsjechisch hof (die niemand meer online heeft).
  2. Nieuwe YouTube-video's van toeristen die net zijn geplaatst.

Ze verwijderden de namen en plekken en gaven het aan de AI.

  • Het resultaat: De AI raakte best veel goed! Maar...
  • De reden: Niet omdat de AI een genie is, maar omdat de privacy-software niet alles had gevonden.
    • Vergelijking: Stel je plakt een zwarte stip over een naam, maar je vergeet dat er in de zin "Ik woon in Amsterdam" nog een hint staat. De AI ziet "Amsterdam" en denkt: "Ah, als je in Amsterdam woont, heet je waarschijnlijk 'Jan'."
    • De software was niet perfect, en de AI gebruikte die kleine foutjes om het geheim te raden.

4. De Grote Les: Wat nu?

De auteurs trekken een harde conclusie:

  • We weten het niet zeker. We kunnen op dit moment niet met 100% zekerheid zeggen of privacy-software werkt, omdat we geen eerlijke tests kunnen doen zonder inbreuk te maken op privacy.
  • De huidige tests liegen. Veel studies zeggen dat privacy "gebroken" is, maar dat komt vaak omdat de test zelf scheef liep (de AI kende het antwoord al).
  • De oplossing? We hebben een nieuwe manier van denken nodig. Net zoals wiskundigen een nieuwe theorie nodig hebben om quantumcomputers te begrijpen, hebben we een nieuwe "privacy-theorie" nodig voor de tijd van AI. We moeten niet alleen kijken naar of een naam weg is, maar kijken naar hoe informatie stroomt en wat een computer echt mag weten.

Samenvattend in één zin:

We proberen nu te testen of we onze privacy kunnen beschermen met zwarte stiftdopjes, maar de tests die we doen zijn onbetrouwbaar omdat de computers de antwoorden al uit hun hoofd kennen, en we mogen de echte geheimen niet gebruiken om het eerlijk te testen. We zitten in een kluif zonder sleutel.