GIFT: A Framework Towards Global Interpretable Faithful Textual Explanations of Vision Classifiers

Dit paper introduceert GIFT, een post-hoc raamwerk dat door middel van visuele contrafacten, visueel-taalmodellen en een verificatiestap globale, interpreteerbare en betrouwbare tekstuele uitleggen genereert voor de besluitvorming van visuele classifiers.

Éloi Zablocki, Valentin Gerard, Amaia Cardiel, Eric Gaussier, Matthieu Cord, Eduardo Valle

Gepubliceerd 2026-02-23
📖 5 min leestijd🧠 Diepgaand

Each language version is independently generated for its own context, not a direct translation.

Stel je voor dat je een zeer slimme, maar mysterieuze robot hebt die foto's bekijkt en beslist of iets "goed" of "slecht" is. Bijvoorbeeld: "Is dit een veilig moment om rechtsaf te slaan?" of "Is dit gezicht van een oude of jonge persoon?".

Het probleem is: de robot geeft alleen het antwoord, maar vertelt niet waarom. Het is alsof hij een raadsel oplost en alleen het antwoord fluistert, zonder de oplossing te tonen. In de echte wereld (zoals bij zelfrijdende auto's of medische scans) is dat gevaarlijk. We moeten weten waarom hij zo denkt, zodat we kunnen vertrouwen op zijn oordeel.

Deze paper introduceert GIFT (een acroniem dat staat voor Global, Interpretable, Faithful, Textual). Je kunt GIFT zien als een vertaler en detective die voor ons uitlegt wat die robot echt in zijn hoofd heeft.

Hier is hoe GIFT werkt, stap voor stap, in simpele taal:

1. De Detective: "Wat als...?" (Stap 1)

Stel, de robot zegt: "Dit is een veilig moment om rechtsaf te slaan."
GIFT begint als een detective die vraagt: "Wat als we dit beeld een klein beetje veranderen? Wordt het antwoord dan anders?"

GIFT maakt duizenden "wat-als"-scenario's (in de vakjargon: counterfactuals).

  • Voorbeeld: "Wat als we die bus links wegdoen? Raakt de robot dan nog steeds 'rechtsaf'?"
  • Voorbeeld: "Wat als we die rode auto toevoegen? Verandert het antwoord dan?"

Dit is heel betrouwbaar, want het test de robot direct. Het is alsof je een slot probeert te openen met verschillende sleutels om te zien welke er echt werkt.

2. De Vertaler: Van Beeld naar Woorden (Stap 2)

De "wat-als"-beelden zijn soms lastig te begrijpen. GIFT gebruikt een slimme vertaler (een Vision-Language Model). Deze vertaler kijkt naar het originele beeld en het "wat-als"-beeld en schrijft een simpele zin over wat er precies veranderde.

  • In plaats van: "Pixel 450 is nu rood."
  • Schrijft de vertaler: "De bus links is verdwenen." of "Er staat nu een rode auto in de weg."

Nu hebben we een lijstje met simpele zinnen in plaats van een berg met foto's.

3. De Samenvatter: Het Grote Plaatje (Stap 3)

Nu heeft GIFT duizenden losse zinnen over kleine veranderingen. Dat is veel ruis. GIFT gebruikt nu een super-slimme AI (een Large Language Model, zoals een zeer intelligente chatbot) om al die losse zinnen te lezen en een groot verhaal te maken.

De AI zoekt naar patronen.

  • Losse zinnen: "Bus links weg", "Bus links weg", "Auto links weg", "Verkeersdrukte links weg."
  • Groot verhaal (De Hypothese): "Ah! De robot denkt dat je niet rechtsaf kunt slaan als er veel verkeer is in de linkerbaan."

Dit is het "Global" deel: van duizenden kleine voorbeelden halen we één grote regel.

4. De Test: Bewijs dat het waar is (Stap 4)

Dit is het belangrijkste deel. De AI in stap 3 is slim, maar ze kan ook hallucineren (dromen). Misschien denkt de AI dat het verkeer links belangrijk is, maar is dat toeval?

GIFT is niet zomaar een verteller; het is een wetenschapper. Het gaat de hypothesen testen!
Het gebruikt een "magische pen" (een beeldbewerkingsmodel) om de foto's opnieuw te bewerken, precies zoals de hypothesen zeggen, en kijkt of de robot zijn antwoord verandert.

  • Test: "We voegen een bus toe aan de linkerbaan."
  • Resultaat: De robot zegt nu: "Nee, niet rechtsaf!"
  • Conclusie: De hypothesen kloppen! De robot is echt afhankelijk van de linkerbaan.

Als de test faalt (de robot verandert zijn antwoord niet), dan was de hypothesen fout. GIFT gooit die dan weg.


Waarom is dit zo speciaal?

Stel je voor dat je een auto koopt en de verkoper zegt: "Deze auto rijdt veilig."

  • Oude methoden: Ze wijzen met een vinger naar een deel van de foto en zeggen: "Kijk hier, dit is belangrijk." Maar je weet niet of dat echt de reden is of dat de auto gewoon naar die kleur kijkt.
  • GIFT: GIFT zegt: "Deze auto rijdt veilig alleen als er geen bus links staat. Als er een bus links staat, denkt hij dat het gevaarlijk is."

GIFT heeft drie superkrachten:

  1. Betrouwbaar (Faithful): Het test zijn eigen uitleg. Het droomt niet; het bewijst het.
  2. Begrijpelijk (Interpretable): Het geeft je een tekstuele uitleg in gewone taal, geen ingewikkelde kaarten met gekleurde pixels.
  3. Groot (Global): Het vertelt je niet alleen waarom deze ene foto zo werd beoordeeld, maar wat de algemene regel is voor de hele robot.

Een echt voorbeeld uit het onderzoek

De onderzoekers testten GIFT op een robot die leerde of je rechtsaf mocht slaan in het verkeer. Ze hadden de robot opzettelijk "bedorven" gemaakt: hij leerde dat als er een auto in de linkerbaan staat, je nooit rechtsaf mag slaan (zelfs als dat onzin is in de echte wereld).

  • Mensen die naar de foto's keken, zagen dit bias (vooroordeel) niet.
  • Andere AI-methoden zagen het ook niet.
  • GIFT vond het direct! Het zei: "Aha! Deze robot is gek. Hij denkt dat een auto in de linkerbaan betekent dat je niet rechtsaf kunt. Dat is een gevaarlijk vooroordeel!"

Conclusie

GIFT is als een eerlijke tolk tussen de complexe, ondoorzichtige wereld van robot-geesten en ons menselijk begrip. Het zorgt ervoor dat we niet blind vertrouwen op wat computers doen, maar echt begrijpen waarom ze het doen. En dat is essentieel voor een veilige toekomst met slimme machines.

Ontvang papers zoals deze in je inbox

Gepersonaliseerde dagelijkse of wekelijkse digests op basis van jouw interesses. Gists of technische samenvattingen, in jouw taal.

Probeer Digest →