The Conundrum of Trustworthy Research on Attacking Personally Identifiable Information Removal Techniques

Die Studie kritisiert, dass die Bewertung von Angriffen auf PII-Entfernungstechniken durch Datenlecks und Kontamination verzerrt ist und stellt fest, dass eine vertrauenswürdige, reproduzierbare Forschung aufgrund der notwendigen Einschränkung des Zugangs zu privaten Daten derzeit nicht möglich ist.

Sebastian Ochs, Ivan Habernal

Veröffentlicht 2026-03-10
📖 5 Min. Lesezeit🧠 Tiefgang

Each language version is independently generated for its own context, not a direct translation.

Titel: Warum das „Schwarze Marker"-Spiel mit KI nicht funktioniert – und warum wir es kaum testen können

Stellen Sie sich vor, Sie haben ein sehr persönliches Tagebuch geschrieben. Darin stehen Ihr Name, Ihre Adresse und Ihre Telefonnummer. Damit dieses Tagebuch öffentlich geteilt werden kann, ohne dass Sie identifiziert werden, nutzen Sie einen schwarzen Marker und streichen alle diese Informationen durch. Das ist im Prinzip, was Computer-Programme tun, wenn sie „PII" (personenbezogene Daten) aus Texten entfernen. Sie machen die Namen unsichtbar, damit die Daten für Forscher nutzbar bleiben, aber niemand weiß mehr, wer dahintersteckt.

Dieser Artikel von Sebastian Ochs und Ivan Habernal stellt jedoch eine sehr wichtige Frage: Ist das wirklich sicher? Und noch wichtiger: Können wir das überhaupt fair testen?

Hier ist die einfache Erklärung der wichtigsten Punkte, mit ein paar Bildern aus dem Alltag:

1. Das Problem: Der „Geister-Geist" in der Maschine

Die Autoren sagen: Viele Studien behaupten, dass KI-Modelle (wie ChatGPT) diese durchgestrichenen Namen wiederherstellen können. Das klingt schrecklich, aber die Autoren glauben, dass diese Tests oft gefälscht sind.

Stellen Sie sich vor, ein Detektiv (die KI) soll herausfinden, wer in einem durchgestrichenen Brief steht.

  • Der echte Test: Der Detektiv darf nur den durchgestrichenen Brief lesen und muss raten.
  • Der gefälschte Test (wie in vielen Studien): Der Detektiv hat den Brief bevor er durchgestrichen wurde schon einmal gelesen! Oder er hat den Namen des Autors schon in einer Zeitung gelesen, die er vorher gelesen hat.

Die Autoren zeigen, dass viele KI-Modelle die Namen nicht wirklich „erraten" haben, sondern sie einfach auswendig gelernt haben, weil sie in ihren Trainingsdaten (dem riesigen Internet, das sie gelernt haben) bereits vorgekommen sind. Es ist, als würde man jemanden bitten, ein Wort zu erraten, das er gerade erst in einem Buch gelesen hat, das er in der Hand hält. Das ist kein Beweis dafür, dass der schwarze Marker schlecht ist, sondern dass der Detektiv schon die Lösung kannte.

2. Das Dilemma: Wir können den Test nicht machen

Jetzt kommt der Teil, der die Forscher verzweifelt macht. Um wirklich zu beweisen, ob der schwarze Marker (die PII-Entfernung) funktioniert, bräuchten wir einen perfekten Test:

  1. Wir brauchen echte, private Daten (z. B. echte Patientenakten oder echte Gerichtsbriefe), die niemand außer uns kennt.
  2. Wir müssen diese Daten „schwärzen".
  3. Wir müssen eine KI darauf trainieren, die Daten zu erraten.
  4. Wichtig: Die KI darf diese Daten niemals vorher gesehen haben.

Das Problem:

  • Echte private Daten sind streng geschützt. Niemand darf sie einfach so an Forscher weitergeben (Datenschutzgesetze wie die DSGVO).
  • Öffentliche Daten (wie Wikipedia) sind schon überall im Internet. Die KI hat sie also schon gelernt. Ein Test damit ist wertlos, weil die KI „cheaten" kann.
  • Künstliche Daten (von KI generiert) sehen zwar aus wie echte Daten, aber sie sind oft zu perfekt oder zu stereotyp. Ein KI-Detektor könnte hier leicht raten, aber das sagt nichts über echte Menschen aus.

Die Metapher:
Es ist, als wollten Sie testen, ob ein neuer Tresor sicher ist. Aber Sie dürfen den Tresor nicht mit echtem Gold füllen, weil das zu gefährlich ist. Sie füllen ihn also mit Schokolade. Aber dann sagen Sie: „Der Tresor hält die Schokolade!" – Das beweist nichts, wenn ein Dieb eigentlich Gold stehlen will. Und wenn Sie echtes Gold nehmen wollen, darf der Tresorbauer Sie nicht einmal in den Raum lassen, aus Angst, das Gold könnte gestohlen werden.

3. Der kleine Versuch der Autoren

Da sie keine echten, geheimen Daten bekommen durften, haben die Autoren einen kleinen, riskanten Versuch gemacht:

  • Sie nahmen alte, öffentliche Gerichtsbriefe aus Tschechien, die online waren, aber kurz danach wieder gelöscht wurden.
  • Sie nahmen YouTube-Vlogs von Reisenden, die erst nachdem die KI trainiert wurde, hochgeladen wurden.

Sie schwärzten die Namen und ließen die KI raten.
Das Ergebnis: Die KI hatte in vielen Fällen Erfolg! Aber warum?

  • Oft waren nicht alle Namen durchgestrichen (der schwarze Marker war ungenau).
  • Oder die KI wusste aus ihrem Allgemeinwissen: „Wenn hier von 'Times Square' und 'I Love NY' die Rede ist, muss der Ort New York sein."

Das zeigt: Selbst wenn die KI die Daten nicht kannte, kann sie aus dem Kontext (den Rest des Textes) oft genug schließen, wer gemeint ist. Der schwarze Marker reicht also nicht aus.

4. Das Fazit: Ein unlösbares Rätsel?

Die Autoren kommen zu einem traurigen, aber ehrlichen Schluss:

Wir können heute nicht wissenschaftlich beweisen, ob PII-Entfernung wirklich sicher ist.

Warum?

  • Wenn wir echte Daten nehmen, ist es illegal oder unmöglich (wegen Datenschutz).
  • Wenn wir öffentliche oder künstliche Daten nehmen, ist der Test nicht fair (wegen Datenlecks).

Es ist ein Zwickmühle (ein „Conundrum"). Die Forscher sind wie Detektive, die einen Mord aufklären wollen, aber der Richter ihnen verbietet, die Tatorte zu betreten oder die Leiche zu untersuchen. Sie können nur raten.

Die Hoffnung:
Die Autoren fordern, dass wir aufhören, nur zu raten. Wir brauchen neue, mathematisch saubere Regeln (wie in der Kryptografie), die genau definieren, was ein „Angreifer" darf und was nicht. Bis dahin sollten wir vorsichtig sein: Das einfache „Schwärzen" von Namen in Texten ist wahrscheinlich nicht sicher genug für wirklich sensible Daten.

Zusammengefasst:
Das „Schwärzen" von Namen ist wie das Abdecken eines Gesichts mit einer Maske. Wenn der Rest des Körpers (der Kontext) aber noch zu viel verrät, oder wenn der Betrachter (die KI) das Gesicht schon aus einem anderen Foto kennt, nützt die Maske nichts. Und weil wir keine echten Gesichter zum Testen bekommen dürfen, wissen wir leider nicht, wie gut die Masken wirklich sind.