Benchmarking Deflection and Hallucination in Large Vision-Language Models

Deze paper introduceert VLM-DeflectionBench, een dynamisch benchmark en evaluatieprotocol dat de prestaties van Large Vision-Language Models meet bij het omgaan met tegenstrijdige of onvolledige multimodale informatie en het vermogen om correct af te wijzen wanneer kennis ontbreekt.

Nicholas Moratelli, Christopher Davis, Leonardo F. R. Ribeiro, Bill Byrne, Gonzalo Iglesias

Gepubliceerd 2026-04-15
📖 5 min leestijd🧠 Diepgaand

Each language version is independently generated for its own context, not a direct translation.

Stel je voor dat je een zeer slimme, maar soms wat onzekere assistent hebt die alles over de wereld weet. Je vraagt hem: "Wat is de naam van dit dier op de foto?" en je geeft hem ook een boekje met feiten over dieren.

Soms is het antwoord in het boekje, en dan is je assistent geweldig. Maar wat gebeurt er als het antwoord niet in het boekje staat, of als het boekje vol staat met verkeerde informatie?

Dit is precies het probleem dat deze nieuwe studie onderzoekt. De onderzoekers hebben een nieuwe test ontwikkeld, genaamd VLM-DeflectionBench, om te kijken hoe slimme computers (die zowel kunnen zien als lezen) reageren op deze situaties.

Hier is de uitleg in simpele taal, met een paar creatieve vergelijkingen:

1. Het Probleem: De "Dwaze" Assistent

Vroeger dachten we dat slimme computers alleen maar beter werden als ze meer feiten uit hun hoofd leerden. Maar in de echte wereld moeten ze vaak informatie opzoeken (zoals in een bibliotheek of op internet).

Het probleem is dat deze computers vaak hallucineren.

  • De analogie: Stel je voor dat je een detective bent. Je hebt een dossier (de foto) en een getuige (de tekst). Als de getuige zegt: "Ik heb niets gezien," zou de detective moeten zeggen: "Oké, dan kunnen we het niet weten."
  • Wat de computers doen: In plaats van te zeggen "Ik weet het niet", verzinnen ze vaak een antwoord. Ze zeggen bijvoorbeeld: "Het is een tijger!" terwijl de getuige duidelijk zei dat er geen tijgers in de buurt waren. Ze durven niet toe te geven dat ze het niet weten.

2. De Oplossing: Een Nieuwe Testbaan

De onderzoekers hebben een nieuwe testbaan gebouwd (de Benchmark) om dit gedrag te meten. Ze noemen het "Deflection" (het afstoten van een vraag).

  • Deflectie is als een beleefde butler die zegt: "Mijnheer, ik kan die vraag niet beantwoorden omdat ik de informatie niet heb." Dit is een goede manier om te falen.
  • Hallucineren is als een butler die een verhaal verzint om je tevreden te stellen, zelfs als hij het niet weet. Dit is een slechte manier om te falen.

3. Hoe werkt de test? (De 4 Scenario's)

De onderzoekers hebben de computers in vier verschillende situaties gezet om te zien hoe ze reageren:

  1. De "Geheugen" Test (Parametric): Geen boekje, alleen de foto.
    • Verwacht gedrag: De computer moet zeggen: "Ik weet het niet."
    • Resultaat: Veel computers proberen het toch te raden en verzinnen iets.
  2. De "Perfecte" Test (Oracle): Alleen het juiste boekje.
    • Verwacht gedrag: De computer moet het antwoord vinden in het boekje.
    • Resultaat: Ze doen het vaak goed, maar soms vergeten ze toch om naar het boekje te kijken en verzinnen ze iets uit hun hoofd.
  3. De "Realistische" Test: Een boekje met het juiste antwoord, maar ook met veel verkeerde antwoorden erin verwerkt.
    • Verwacht gedrag: De computer moet het juiste antwoord vinden en de verkeerde negeren.
    • Resultaat: Ze raken in de war. Ze kiezen vaak het verkeerde antwoord uit het boekje.
  4. De "Valstrik" Test (Adversarial): Alleen maar een boekje vol met verkeerde informatie.
    • Verwacht gedrag: De computer moet zeggen: "Dit boekje is nutteloos, ik kan het niet beantwoorden."
    • Resultaat: Dit is waar het misgaat. De computers lezen de verkeerde informatie en zeggen: "Ah, hier staat het antwoord!" terwijl het een leugen is.

4. De Verbazingwekkende Bevindingen

Wat hebben ze ontdekt na het testen van 20 van de slimste computers ter wereld?

  • Ze durven niet "nee" te zeggen: Zelfs als ze zien dat de informatie niet klopt of ontbreekt, proberen ze toch een antwoord te geven. Ze zijn bang om "dom" over te komen.
  • Tekst is sterker dan beelden: Als er een verkeerde tekst bij een goede foto staat, luisteren de computers naar de tekst en negeren ze de foto. Het is alsof iemand een foto van een hond laat zien, maar de tekst zegt "dit is een kat", en de computer gelooft de tekst.
  • Strikte regels helpen niet altijd: Als je de computers streng instrueert: "Geef alleen antwoord als je 100% zeker bent," dan doen ze soms helemaal niets, zelfs als het antwoord er wel is. Ze worden te voorzichtig.

5. Waarom is dit belangrijk?

Voor nu denken we dat deze slimme computers al heel goed zijn. Maar deze studie laat zien dat ze nog niet betrouwbaar genoeg zijn voor belangrijke taken (zoals medische diagnoses of juridisch advies).

Als een computer een fout maakt, is het veel veiliger als hij zegt: "Ik weet het niet, vraag het aan een mens" (deflectie), dan dat hij een gevaarlijke leugen vertelt (hallucineren).

Kortom:
De onderzoekers hebben een nieuwe "rijbewijstest" voor slimme computers gemaakt. Ze ontdekten dat de beste computers nog steeds te snel een antwoord verzinnen in plaats van eerlijk toe te geven dat ze het niet weten. De toekomst ligt niet alleen in het maken van slimmere computers, maar in het leren van bescheidenheid: weten wanneer je moet zwijgen.

Ontvang papers zoals deze in je inbox

Gepersonaliseerde dagelijkse of wekelijkse digests op basis van jouw interesses. Gists of technische samenvattingen, in jouw taal.

Probeer Digest →