Detecting AI-Generated Images via Diffusion Snap-Back Reconstruction: A Forensic Approach

Deze studie introduceert een forensische methode voor het detecteren van door AI gegenereerde afbeeldingen, genaamd 'diffusion snap-back reconstruction', die analyseert hoe afbeeldingen reageren op reconstructie door een diffusiemodel en hiermee een hoge nauwkeurigheid bereikt zonder te vertrouwen op traditionele pixelartefacten.

Mohd Ruhul Ameen, Akif Islam

Gepubliceerd 2026-03-10
📖 4 min leestijd☕ Koffiepauze-leesvoer

Each language version is independently generated for its own context, not a direct translation.

De "Snap-Back" Test: Hoe we AI-afbeeldingen opsporen met een digitale veer

Stel je voor dat je een foto van een echte hond en een foto van een door een computer bedachte hond hebt. Voor het blote oog lijken ze allebei perfect. Zelfs voor onze ogen is het vaak onmogelijk om het verschil te zien. Maar wat als we die foto's een beetje "stoten" en kijken hoe ze reageren?

Dat is precies wat dit nieuwe onderzoek doet. De onderzoekers hebben een slimme manier bedacht om te zien of een foto echt is of door een AI (kunstmatige intelligentie) gemaakt, zonder naar kleine foutjes in de pixels te kijken. Ze noemen hun methode "Diffusion Snap-Back" (ofwel: de terugveer-test).

Hier is hoe het werkt, vertaald naar alledaagse taal:

1. Het idee: De "Gordijn" en de "Veer"

Stel je een AI-foto voor als een poppetje gemaakt van een heel soepel, elastisch materiaal (zoals een veer of een rubberen bal). Een echte foto is meer als een stukje steen of hout.

De onderzoekers gebruiken een slimme computer (een "diffusiemodel") die normaal gesproken gebruikt wordt om afbeeldingen te maken. Ze laten deze computer een foto "opknappen" nadat ze er een beetje ruis (verwarring) in hebben gestopt.

  • De test: Ze gooien een beetje "zand" in de foto (ruis) en vragen de computer: "Maak dit er weer netjes uit."
  • De reactie:
    • AI-foto's (De veer): Omdat de computer deze foto's zelf heeft bedacht, weet hij precies hoe ze eruit moeten zien. Als je ze een beetje verwart, "veert" de computer er soepel op terug. De foto blijft er heel natuurlijk uitzien, zelfs als de verwarring groot is. Het is alsof je een rubberen bal duwt; hij veert terug naar zijn oorspronkelijke vorm.
    • Echte foto's (De steen): Een echte foto is niet gemaakt door deze specifieke computer. Als je er ruis in stopt en de computer probeert het op te lossen, raakt hij in de war. De details (zoals de textuur van huid of bladeren) vallen uit elkaar. De computer kan het niet goed "terugveer" omdat het niet past in zijn interne wereldbeeld. Het is alsof je een stukje brood duwt; het plakt niet terug, het breekt.

2. Hoe meten ze dit?

Ze kijken niet met hun ogen, maar met een liniaal voor beelden. Ze meten drie dingen:

  1. Hoeveel lijkt het nog op het origineel? (Zoals een score voor "gelijkheid").
  2. Hoe snel gaat het mis? (Bij echte foto's gaat het snel mis als de verwarring toeneemt; bij AI-foto's blijft het lang goed).
  3. Het "Knie-punt": Op welk moment breekt de echte foto volledig? Dat moment noemen ze de "knee-step".

Ze doen dit met verschillende niveaus van verwarring (van heel zachtjes tot heel hard). Door te kijken naar hoe de cijfers veranderen, kunnen ze een patroon zien.

3. De resultaten: Een bijna perfecte detector

Ze hebben dit getest op 4.000 foto's (de helft echt, de helft AI).

  • Het resultaat? Hun methode was 99,3% betrouwbaar in het onderscheiden van echte en nep-foto's.
  • Zelfs als je de foto's een beetje inkleurt, comprimeert (zoals bij WhatsApp) of er een beetje ruis bij zet, werkt de test nog steeds goed.

4. Waarom is dit belangrijk?

Vroeger keken onderzoekers naar kleine foutjes in de pixels (zoals een rare schaduw of een rare rand). Maar moderne AI's maken geen foutjes meer; ze zijn te perfect.

Deze nieuwe methode kijkt niet naar fouten, maar naar gedrag.

  • Vergelijking: Het is alsof je twee mensen wilt testen op wie een spion is.
    • De oude methode: "Kijk of de spion een vlek op zijn jas heeft." (Maar spionnen dragen nu schone jassen).
    • De nieuwe methode: "Vraag ze een moeilijke vraag en kijk hoe ze reageren." De echte spion (de AI) reageert te soepel en te perfect, terwijl de echte mens (de echte foto) een beetje haperend reageert omdat hij niet in het systeem van de spion zit.

Conclusie

De onderzoekers hebben een nieuwe manier gevonden om nepnieuws en valse foto's te detecteren. In plaats van te zoeken naar wat er mis is, kijken ze hoe een foto terugveert als je er een beetje aan trekt.

Het is een slimme, snelle en betrouwbare manier om te zeggen: "Dit is gemaakt door een computer" of "Dit is een echte foto". Dit kan helpen om bedrog in het nieuws, bij sollicitaties of in de rechtbank te voorkomen.