How Effective Are Publicly Accessible Deepfake Detection Tools? A Comparative Evaluation of Open-Source and Free-to-Use Platforms

Deze studie toont aan dat, hoewel forensische tools en AI-classificatoren complementaire zwaktes vertonen, menselijke onderzoekers met justitiële ervaring aanzienlijk beter presteren dan alle geautomatiseerde openbare deepfake-detectietools.

Michael Rettinger, Ben Beaumont, Nhien-An Le-Khac, Hong-Hanh Nguyen-Le

Gepubliceerd 2026-03-06
📖 4 min leestijd☕ Koffiepauze-leesvoer

Each language version is independently generated for its own context, not a direct translation.

Titel: De Strijd tegen Valse Media: Waarom Robots (nog) niet de Mens kunnen vervangen

Stel je voor dat je op internet een foto ziet van een beroemdheid die iets zegt dat ze nooit gezegd hebben, of een video van een bankier die miljoenen overmaakt naar een vreemde rekening. Dit zijn deepfakes: valse beelden gemaakt door kunstmatige intelligentie (AI) die zo goed zijn dat ze nauwelijks van echt te onderscheiden zijn.

De vraag is: kunnen we deze vervalsingen opsporen met gratis online tools?

Dit wetenschappelijke artikel doet precies dat. Twee onderzoekers, die werken als digitale rechercheurs, hebben zes gratis tools getest. Ze vergelijken twee soorten "detectives":

1. De Twee Soorten Detectives

De onderzoekers hebben twee groepen tools getest, die werken als twee totaal verschillende soorten detectives:

  • De Forensische Detectives (De "Microscoop"):

    • Voorbeelden: FotoForensics, Forensically, InVID.
    • Hoe ze werken: Deze tools kijken niet naar het hele plaatje, maar naar de microscopische details. Ze zoeken naar sporen van manipulatie, zoals onnatuurlijke ruis, vreemde schaduwen of sporen van knip-en-plakwerk.
    • De analogie: Het is alsof je een schilderij onder een microscoop legt om te zien of de verflaagjes niet kloppen.
    • Het probleem: Ze zijn heel gevoelig. Ze zien vaak sporen waar geen sporen zijn. Als een foto gewoon wat gecomprimeerd is (zoals op Facebook), denken ze dat het vals is. Ze roepen vaak: "Dit is vals!" terwijl het echt is.
  • De AI-Klassificators (De "Snelle Scanner"):

    • Voorbeelden: DecopyAI, FaceOnLive, Bitmind.
    • Hoe ze werken: Deze tools zijn getraind met duizenden voorbeelden. Ze kijken naar het beeld en zeggen direct: "Ja, dit is nep" of "Nee, dit is echt". Ze geven een percentage zekerheid.
    • De analogie: Het is alsof je een hond hebt die getraind is om truffels te ruiken. Als hij iets ruikt, zegt hij "truffel!". Hij kijkt niet naar de grond, hij vertrouwt op zijn neus.
    • Het probleem: Ze zijn blind voor nieuwe trucs. Als de AI die de nepfoto maakt een andere methode gebruikt dan waar de hond voor getraind is, ruikt de hond niets. Ze zeggen vaak: "Dit is echt!" terwijl het nep is.

2. Wat vonden ze? (De Grote Verassingen)

De onderzoekers lieten deze tools werken op 250 foto's (sommige echt, sommige nep, sommige gemanipuleerd) en vergeleken ze met een menselijke expert (een ervaren rechercheur).

Hier zijn de drie belangrijkste bevindingen, vertaald naar simpele taal:

  • De Mens wint altijd:
    De menselijke onderzoeker was veruit de beste. Hij had 94% van de nepbeelden correct geïdentificeerd. De beste computer-tool haalde maar 79%.

    • Analogie: Een menselijke detective kan kijken naar de ogen van een persoon en denken: "Die blik is niet natuurlijk." De computer kijkt alleen naar pixels en mist de "ziel" van het beeld.
  • De Tools vullen elkaar aan, maar zijn geen perfecte oplossing:

    • De Forensische tools roepen vaak "Vals!" (ze missen weinig nepbeelden, maar roepen ook veel echte beelden vals).
    • De AI-tools roepen vaak "Echt!" (ze missen veel nepbeelden, maar als ze iets als echt bestempelen, is dat meestal waar).
    • Conclusie: Je hebt ze allebei nodig, maar geen van beide is alleen goed genoeg.
  • De "Blind Vlek" van de AI:
    Er waren specifieke soorten nepbeelden (gemaakt met een bepaalde software genaamd HeyGen) waar geen enkele AI-tool iets van merkte. Ze dachten allemaal dat het echt was.

    • Analogie: Het is alsof je een slot hebt dat alleen opent met een sleutel van het merk "A". Als de inbreker een sleutel van merk "B" gebruikt, ziet je slot niets. De AI-tools zijn getraind op oude sleutels en zien de nieuwe sleutels niet.

3. Waarom is dit belangrijk voor jou?

Stel je voor dat je een politieagent bent die een bewijsstuk moet controleren. Als je alleen op de AI-tool vertrouwt, kun je een onschuldige persoon onterecht beschuldigen (want de tool dacht dat zijn foto nep was) of een crimineel laten gaan (want de tool dacht dat zijn nepfoto echt was).

De boodschap van het artikel is simpel:
Gebruik deze gratis tools als een eerste filter, maar vertrouw ze nooit blindelings.

  • Gebruik de snelle AI-tools om snel te scannen.
  • Gebruik de forensische tools om te kijken naar de details.
  • Maak altijd een menselijke check. Een ervaren mens is nog steeds de beste "detector" die we hebben.

Samenvatting in één zin:

Kunstmatige intelligentie kan helpen om nepbeelden te vinden, maar ze zijn nog te dom om alle trucs te doorzien en te vaak slordig; daarom is de menselijke oordeelsvorming (de "mens in de loop") nog steeds de enige echte garantie.