GenVidBench: A 6-Million Benchmark for AI-Generated Video Detection

Dit paper introduceert GenVidBench, een uitdagend en tot nu toe grootste dataset van 6,78 miljoen video's afkomstig van 11 state-of-the-art generatoren, die is ontworpen om de ontwikkeling en evaluatie van effectieve detectiemodellen voor door AI gegenereerde video's te bevorderen.

Zhenliang Ni, Qiangyu Yan, Mouxiao Huang, Tianning Yuan, Yehui Tang, Hailin Hu, Xinghao Chen, Yunhe Wang

Gepubliceerd 2026-03-02
📖 5 min leestijd🧠 Diepgaand

Each language version is independently generated for its own context, not a direct translation.

Stel je voor dat we leven in een wereld waar het steeds moeilijker wordt om te zeggen wat echt is en wat nep. Vroeger was een nepfoto makkelijk te herkennen: de oren waren raar, de lach te breed. Maar nu, met de nieuwe AI-video's (zoals die van Sora of Kling), zijn de nepvideo's zo goed dat ze eruitzien als echte opnames. Het is alsof iemand een perfecte nep-uitkering heeft gemaakt die er precies uitziet als het echte geld, zelfs voor de bankier.

De auteurs van dit paper, een team van Huawei, zeggen: "Dit is gevaarlijk. Mensen kunnen nepnieuws verspreiden, reputaties vernietigen en we weten het niet eens." Om dit te stoppen, hebben we nodig dat computers leren om de nep te spotten. Maar daarvoor heb je een goede trainer nodig. En dat is precies wat dit paper doet.

Hier is de uitleg in simpele taal:

1. Het Probleem: De "Nep-Video" Oefening

Stel je voor dat je een agent wilt trainen om valse paspoorten te herkennen.

  • Het oude probleem: Je gaf de agent alleen paspoorten van één nepmaker te zien. Als de agent dan een paspoort van een andere nepmaker zag, dacht hij: "Oh, dit is echt!" omdat het er anders uitzag.
  • De oplossing: Je moet de agent trainen met neppe paspoorten van alle denkbare nepmakers, en je moet ze ook laten zien dat de inhoud (de foto op het paspoort) hetzelfde kan zijn, maar de maker anders.

2. De Oplossing: GenVidBench (De "Super-Oefenhal")

De auteurs hebben GenVidBench gemaakt. Dit is een gigantische database met 6,78 miljoen video's. Dat is een enorm aantal, veel groter dan alles wat er eerder was.

Je kunt dit zien als een enorme sportschool voor AI:

  • De "Echte" Video's: Dit zijn de "echte" video's (zoals nieuwsbeelden of documentaires).
  • De "Nep" Video's: Dit zijn video's gemaakt door 11 verschillende, supermoderne AI-generatoren (zoals Pika, Sora, MuseV).

Het unieke aan deze sportschool:
Ze hebben een slimme truc bedacht. Ze nemen één tekst of één foto (bijvoorbeeld: "een vlinder op een bloem") en laten 11 verschillende AI's diezelfde video maken.

  • De ene AI maakt het misschien heel realistisch.
  • De andere AI maakt het wat vaag.
  • Maar de inhoud is hetzelfde.

Dit is cruciaal. Als een AI-detector leert om alleen te kijken naar wat er te zien is (een vlinder), faalt hij. Hij moet leren kijken naar hoe het eruitziet (de subtiele bewegingen, de lichtval, de "handtekening" van de AI).

3. De "Cross-Source" Test: De Uiteindelijke Examen

In de meeste oude tests mocht de AI tijdens het examen oefenen met dezelfde video's als tijdens de training. Dat is als een student die de antwoorden van de toets al kent.

Bij GenVidBench doen ze het anders:

  • Training: De AI leert op video's gemaakt door AI A, B, C en D.
  • Examen: De AI moet video's herkennen gemaakt door AI E, F, G, H en I.

Dit is alsof je een student traint op de vragen van leraar X, en hem dan een examen geeft van leraar Y. Als de student de principes van nepheid heeft begrepen, haalt hij het. Zo niet, dan zakt hij. Dit maakt de test extreem moeilijk, maar ook extreem waardevol.

4. De "Semantic Labels": De Gids in het Dikste Bos

Omdat er 6 miljoen video's zijn, zou je verdwalen. Daarom hebben de auteurs elk stukje video "etiketjes" gegeven.
Ze kijken naar drie dingen:

  1. Wie of wat? (Mensen, dieren, gebouwen, natuur).
  2. Wat gebeurt er? (Stilzitten, rennen, iets vasthouden).
  3. Waar? (In de stad, in de natuur, in een huis).

Dit is alsof je in een gigantische bibliotheek bent. In plaats van alle boeken door te zoeken, kun je zeggen: "Ik wil alleen boeken over dieren die rennen in de stad". Zo kunnen onderzoekers precies kijken: "Hoe goed is de AI in het detecteren van nepvideo's van dieren? Misschien is hij daar slecht in, maar goed in gebouwen."

5. Wat hebben ze ontdekt?

Ze hebben verschillende "trainers" (bestaande AI-modellen) getest in deze sportschool.

  • Het nieuws: Het is heel moeilijk! Zelfs de slimste AI's halen maar ongeveer 85% goed.
  • De verrassing: Video's gemaakt door de nieuwste, beste AI's (zoals Sora) zijn het lastigst te detecteren. Ze zijn zo goed dat ze bijna niet van echt te onderscheiden zijn.
  • De les: Als je een detector wilt bouwen die echt werkt in de echte wereld, moet je trainen met deze moeilijke, gevarieerde dataset. Oude datasets waren te makkelijk en te eentonig.

Samenvattend

GenVidBench is de grootste en moeilijkste "nep-detectie" sportschool die er tot nu toe bestaat. Het dwingt AI-systemen om niet te trappen in de inhoud van een video, maar om de subtiele, onzichtbare sporen van een nepmaker te vinden, zelfs als de maker wisselt. Het is een noodzakelijke stap om te voorkomen dat we in een wereld terechtkomen waar we niets meer kunnen geloven wat we op beeldschermen zien.

Ontvang papers zoals deze in je inbox

Gepersonaliseerde dagelijkse of wekelijkse digests op basis van jouw interesses. Gists of technische samenvattingen, in jouw taal.

Probeer Digest →