The Malicious Technical Ecosystem: Exposing Limitations in Technical Governance of AI-Generated Non-Consensual Intimate Images of Adults

Dit artikel onthult hoe een 'kwaadaardig technisch ecosysteem' van open-source tools en software de huidige AI-governance, zoals de NIST-standaarden, ondermijnt door het creëren van niet-toegestane AI-genereren van intieme beelden van volwassenen mogelijk te maken zonder effectieve regulering.

Michelle L. Ding, Harini Suresh

Gepubliceerd Mon, 09 Ma
📖 4 min leestijd☕ Koffiepauze-leesvoer

Each language version is independently generated for its own context, not a direct translation.

Stel je voor dat er een ondergrondse markt bestaat waar mensen hun foto's kunnen sturen en in een paar minuten een nepfoto krijgen van iemand anders, maar dan zonder kleding. Dit is wat de auteurs van dit paper "AI-generatie van niet-toegestane intieme beelden" noemen, of kortweg: nepporno.

Deze tekst legt uit waarom de huidige regels en technologieën om dit te stoppen, volledig falen. Hier is de uitleg in simpele taal, met een paar beeldende vergelijkingen.

1. Het Probleem: De "Gevaarlijke Techniek-Boom"

De auteurs noemen het systeem dat deze nepfoto's maakt de "Malicious Technical Ecosystem" (MTE).

  • De Vergelijking: Stel je voor dat er een enorme, wilde boom groeit in een bos. De wortels zijn open-source software (gratis code die iedereen kan gebruiken). De takken zijn honderden verschillende programma's die je op je telefoon of computer kunt installeren.
  • Hoe het werkt: Je hoeft geen computerexpert te zijn. Je klikt op een knop, uploadt een foto van een vriendin of een beroemdheid, en binnen een minuut is er een nepfoto. Er zijn bijna 200 van deze programma's en duizenden websites die dit aanbieden.
  • Het Gevolg: Zelfs als de foto er "nep" uitziet (vaak wel, met rare randjes of watermerken), doet het nog steeds enorme pijn. Het kost mensen hun reputatie, hun geld, hun vriendschappen en hun mentale gezondheid. Het zorgt ervoor dat vrouwen en minderheden zich terugtrekken uit het internet uit angst.

2. Waarom de Huidige Oplossingen Niet Werken

De auteurs kijken naar de officiële regels (zoals die van het Amerikaanse NIST) die bedoeld zijn om dit te stoppen. Ze zeggen: "Deze regels kijken naar de verkeerde dingen." Ze noemen drie grote fouten:

Fout 1: "Het is duidelijk nep, dus het is oké?"

  • De Vergelijking: De huidige regels denken: "Als een nepfoto eruitziet als een slechte tekening en er staat 'Dit is nep' op, dan is het niet gevaarlijk."
  • De Realiteit: Dat is net alsof je zegt: "Een nepbrief die eruitziet als een kinderkrabbel is niet gevaarlijk." Zelfs als je weet dat het nep is, kan het je leven verwoesten. De regels focussen te veel op het herkennen van nep (transparantie), maar vergeten dat het maken en verspreiden van die nepfoto's al genoeg schade doet, zelfs als het niet perfect is.

Foot 2: "Kinderen en Volwassenen worden door elkaar gehaald"

  • De Vergelijking: De regels behandelen nepfoto's van kinderen (CSAM) en nepfoto's van volwassenen alsof het exact hetzelfde probleem is.
  • De Realiteit: Voor kinderen is de wet heel duidelijk: elke foto is illegaal. Je kunt een database maken van alle illegale foto's en die blokkeren. Bij volwassenen is het lastiger: een foto van een volwassene is niet per se illegaal, tenzij de persoon er geen toestemming voor heeft gegeven. De huidige blokkeer-middelen werken goed voor kinderen, maar zijn te dom en te simpel voor de complexe situatie van volwassenen.

Fout 3: "We regelen alleen de grote fabrieken, niet de straatkraampjes"

  • De Vergelijking: De huidige regels zijn ontworpen om de grote, bekende AI-fabrieken (zoals die van Stability AI) te controleren. Ze vragen: "Zorg dat je grote fabriek geen slechte foto's maakt."
  • De Realiteit: Het echte probleem zit in de "straatkraampjes" (de MTE). Dit zijn duizenden kleine, losse programmaatjes die speciaal zijn gebouwd om alleen nepporno te maken. De regels die bedoeld zijn voor de grote fabrieken (waar je een tekstje typt om een foto te maken) werken niet voor deze straatkraampjes (waar je een bestaande foto uploadt om deze naakt te maken). De regels kijken naar de verkeerde plek.

3. De Conclusie: We Moeten Anders Kijken

De auteurs zeggen dat we moeten stoppen met denken dat dit alleen een probleem is van "slechte gebruikers" die de regels overtreden.

  • De Kernboodschap: De technologie zelf is hier het probleem. Deze tools zijn niet gemaakt om te helpen, maar zijn speciaal ontworpen om schade aan te richten.
  • De Oplossing: We hebben nieuwe regels nodig die zich richten op de slachtoffers (de mensen wier foto's worden misbruikt) en die de hele "boom" van deze software aanpakken, niet alleen de grote takken. We moeten erkennen dat zelfs "slechte" nepfoto's gevaarlijk zijn en dat we de bron moeten droogleggen, niet alleen de verspreiding.

Kortom: De huidige politie (de regels) probeert een bende te stoppen door alleen de grote banken te bewaken, terwijl de bende juist in de achtertuinen en kelders van het internet zit te werken met eigen, gevaarlijke gereedschappen. We moeten die kelders sluiten.