Each language version is independently generated for its own context, not a direct translation.
Stellen Sie sich vor, das Internet ist eine riesige, belebte Stadt. In dieser Stadt gibt es einen dunklen, versteckten Markt, den die Autoren dieses Papers den „bösen technischen Ökosystem" (oder MTE) nennen.
Hier ist die einfache Erklärung, was in diesem Papier passiert, mit ein paar anschaulichen Vergleichen:
1. Das Problem: Der digitale „Fälschungs-Handwerker"
Stellen Sie sich vor, jemand nimmt ein harmloses Foto einer Frau und klebt es in einen digitalen „Kleber", der sie in eine Pornoszene verwandelt. Das nennt man KI-generierte nicht-einvernehmliche intime Bilder (AIG-NCII). Im Volksmund heißt das oft „Deepfake-Pornos".
Das Schlimme daran ist nicht nur, dass es passiert, sondern wie einfach es ist.
- Die Analogie: Früher brauchte man einen teuren Filmstudio, um so etwas zu fälschen. Heute gibt es im Internet einen Bastelkasten für jedermann. Es gibt fast 200 kostenlose oder günstige Software-Programme („Nudifier"), die wie ein einfacher „Druck-und-Fertig"-Knopf funktionieren. Jeder, der ein Foto hochlädt, kann in wenigen Minuten eine Fälschung erstellen, ohne Programmierkenntnisse zu haben.
- Die Realität: Es gibt Tausende von offenen Code-Bibliotheken (wie auf GitHub), die genau dafür gemacht sind. Diese Werkzeuge sind wie eine Werkbank, die nur für illegales Bauen gedacht ist.
2. Warum die aktuellen Gesetze und Regeln versagen
Die Autoren sagen: „Unsere aktuellen Sicherheitsmaßnahmen sind wie ein Schloss für eine Tür, die gar nicht existiert." Sie testen ihre These an einem offiziellen Bericht (NIST), der Regeln für KI-Inhalte aufstellt, und finden drei große Lücken:
Lücke 1: Das „Etikett"-Missverständnis
- Die Annahme der Behörden: „Wenn wir die Bilder mit einem Stempel versehen, der sagt ‚Das ist KI' oder ‚Das ist Fake', dann ist das Problem gelöst. Niemand wird sich davon täuschen lassen."
- Die Realität: Das ist wie zu sagen: „Wenn wir auf eine gefälschte Banknote schreiben ‚Das ist Fälschung', ist sie nicht mehr gefährlich."
- Warum es falsch ist: Selbst wenn das Bild offensichtlich gefälscht aussieht (wie eine schlechte Zeichnung), tut es den Betroffenen immens weh. Es zerstört ihren Ruf, kostet sie Geld und bringt sie dazu, sich aus dem Internet zurückzuziehen. Das bloße „Etikettieren" stoppt den Schmerz nicht. Die bösen Macher denken sogar: „Ach, die Opfer können ja sagen: ‚Das bin nicht ich, das ist Fake'." Aber das hilft ihnen nicht gegen die psychische Gewalt.
Lücke 2: Der verwechselte „Feind"
- Die Annahme der Behörden: Die Regeln für den Schutz von Kindern (CSAM) und den Schutz von Erwachsenen werden oft in einen Topf geworfen.
- Die Realität: Das ist wie zu versuchen, Einbrecher mit einem Kinderspielzeug-Schloss aufzuhalten.
- Bei Kindern ist die Sache klar: Jedes Bild ist illegal. Man kann eine Datenbank mit allen bekannten illegalen Bildern haben und diese sofort blockieren.
- Bei Erwachsenen ist es komplizierter: Ein normales Foto einer Frau ist legal. Erst wenn jemand es missbraucht, wird es illegal. Die aktuellen Systeme sind darauf ausgelegt, bereits bekannte illegale Bilder zu finden, aber sie können nicht verhindern, dass jemand ein neues legales Foto in eine böse Maschine steckt und daraus ein neues, illegales Bild macht.
Lücke 3: Der Fokus auf die „Großen", nicht auf die „Kleinen"
- Die Annahme der Behörden: Die Regeln zielen auf die großen, seriösen KI-Firmen ab (wie die, die Stable Diffusion entwickeln). Man denkt: „Wenn wir diese Firmen dazu bringen, ihre Eingaben zu filtern, ist alles sicher."
- Die Realität: Das ist wie die Polizei zu bitten, nur die großen Supermärkte zu kontrollieren, während die Straßenhändler im Schatten weiterarbeiten.
- Die bösen Werkzeuge (das MTE) sind keine großen Firmen. Sie sind kleine, offene Projekte, die niemand kontrolliert.
- Die Sicherheitsfilter der großen Firmen funktionieren, weil sie Fragen stellen wie: „Was möchtest du generieren?" (z. B. „Erstelle ein Bild von einem Hund").
- Die bösen Werkzeuge fragen aber: „Lade ein Foto hoch." Sie haben keine Fragen, die man blockieren könnte. Die Technologie selbst ist das Problem, nicht nur der Nutzer.
3. Die Lösung: Ein neuer Blickwinkel
Die Autoren schlagen vor, dass wir aufhören müssen, nur auf die Verteilung (das Löschen von Bildern, wenn sie schon online sind) zu achten. Das ist wie das Aufräumen von Müll, während man gleichzeitig die Mülltonne offen lässt, damit mehr reinkommt.
Stattdessen müssen wir die Entstehung bekämpfen.
- Die Botschaft: Wir müssen verstehen, dass diese Werkzeuge nicht einfach nur „Werkzeuge" sind, die von bösen Menschen missbraucht werden. Diese Werkzeuge wurden speziell für böse Zwecke gebaut.
- Das Ziel: Wir brauchen Regeln, die diese „Bastelkästen" im Internet direkt stoppen, bevor sie überhaupt ein Bild produzieren können. Und wir müssen die Opfer in den Mittelpunkt stellen, statt sie zu bitten, sich selbst gegen die Flut an Bildern zu wehren.
Zusammenfassend:
Das Papier sagt: „Wir bauen hohe Zäune um die großen Parks (die Firmen), aber wir lassen den dunklen Wald (die offenen, bösen Tools) offen. Solange wir nicht den Wald selbst absperren, wird der Schaden weiterwachsen, egal wie viele Schilder wir aufstellen."