Why Does It Look There? Structured Explanations for Image Classification

Het paper introduceert I2X, een raamwerk dat ongestructureerde interpretatie omzet in gestructureerde, prototype-gebaseerde verklaringen voor beeldclassificatiemodellen, waardoor niet alleen het besluitvormingsproces transparant wordt maar ook de voorspellingsnauwkeurigheid kan worden verbeterd door gerichte fine-tuning.

Jiarui Li, Zixiang Yin, Samuel J Landry, Zhengming Ding, Ramgopal R. Mettu

Gepubliceerd 2026-03-12
📖 4 min leestijd☕ Koffiepauze-leesvoer

Each language version is independently generated for its own context, not a direct translation.

Waarom kijkt de AI daarheen? Een simpel verhaal over het ontrafelen van de "zwarte doos"

Stel je voor dat je een zeer slimme, maar zeer stilzwijgende kunstenaar hebt. Deze kunstenaar kan foto's van dieren of cijfers perfect herkennen. Maar als je vraagt: "Waarom denk je dat dit een kat is?" of "Waarom zie jij hier een 7?", dan zegt hij niets. Hij wijst alleen naar een wazig plekje op de foto en zegt: "Daar."

Dit is het probleem met moderne kunstmatige intelligentie (AI). Ze zijn slim, maar ze zijn een "zwarte doos": we zien het eindresultaat, maar we weten niet hoe ze erachter komen. Bestaande methoden om dit op te lossen, zijn vaak als een wazige vlek op een foto: ze laten zien waar de AI kijkt, maar niet waarom of hoe die beslissing tot stand kwam.

De auteurs van dit paper (van de Tulane Universiteit) hebben een nieuwe manier bedacht, genaamd I2X (Interpretability to Explainability). Ze willen niet alleen zien waar de AI kijkt, maar een gestructureerd verhaal vertellen over waarom hij daar kijkt.

Hier is hoe het werkt, vertaald in alledaagse taal:

1. Het idee: De AI als een leerling die notities maakt

Stel je voor dat de AI een leerling is die een examen doet. Tijdens het leren (het trainen) maakt hij steeds nieuwe notities over wat hij ziet.

  • De oude manier: Kijk naar de notities van de leerling op het moment dat hij klaar is. Je ziet alleen de eindconclusie.
  • De I2X-methode: Kijk naar de evolutie van de notities. We kijken hoe de leerling van de eerste dag tot de laatste dag zijn denkproces verandert.

2. De "Bouwstenen" (Prototypes)

De AI kijkt niet naar een hele foto in één keer. Hij breekt de foto op in kleine stukjes, zoals een puzzel.

  • De onderzoekers laten de AI deze stukjes groeperen in patronen (ze noemen dit "prototypes").
  • Bijvoorbeeld: Een patroon voor "een diagonale streep", een patroon voor "een puntje linksboven", of "een horizontale lijn".
  • Als de AI een cijfer '7' moet herkennen, zoekt hij niet naar een '7', maar naar een combinatie van deze bouwstenen: "Ah, hier is een diagonale streep en een puntje rechts!"

3. Het verhaal van de "Vertrouwen"

Tijdens het trainen kijkt I2X naar twee dingen tegelijk:

  1. Hoe sterk de AI een patroon ziet (bijvoorbeeld: "Ik zie die diagonale streep heel duidelijk").
  2. Hoe zeker de AI is van zijn antwoord (bijvoorbeeld: "Ik ben 90% zeker dat dit een 7 is").

Door te kijken hoe deze twee dingen samen veranderen, kunnen ze een verhaal vertellen: "Aan het begin dacht de AI dat het een 2 was, maar toen hij het patroon 'diagonale streep' zag, werd hij onzeker. Toen zag hij ook 'een puntje', en toen werd hij zeker dat het een 7 was."

4. Het grote probleem: De "Verwarrende" Bouwstenen

Soms ziet de AI een patroon dat hem in de war brengt.

  • Voorbeeld: Stel je voor dat je een '7' en een '2' moet onderscheiden. Soms ziet de AI een patroon dat op beide lijkt (bijvoorbeeld een kromme lijn).
  • Als de AI dit verwarrende patroon ziet, twijfelt hij: "Is dit een 7 of een 2?"
  • De onderzoekers kunnen precies zien welk patroon deze verwarring veroorzaakt. Het is alsof ze zeggen: "Ah, het is die ene specifieke kromme lijn die de AI dwarszit!"

5. De oplossing: De AI "opfrissen"

Dit is het meest interessante deel. Omdat ze precies weten welk patroon de AI in de war brengt, kunnen ze de AI trainen om dat specifieke patroon te negeren.

  • Ze nemen de foto's waar die verwarrende lijn voorkomt en zeggen: "Kijk niet naar die lijn, kijk naar de rest!"
  • Hierdoor wordt de AI niet alleen slimmer, maar ook betrouwbaarder. Ze hebben getoond dat dit de fouten tussen verwarrende cijfers (zoals 7 en 2) of dieren (zoals katten en honden die op elkaar lijken) aanzienlijk vermindert.

Samenvattend: Waarom is dit belangrijk?

Vroeger zeiden we: "De AI is slim, maar we weten niet waarom."
Met I2X zeggen we: "We weten precies hoe de AI leert. We weten welke bouwstenen hij gebruikt, welke hem in de war brengen, en we kunnen hem zelfs helpen om die verwarring op te lossen."

Het is alsof je niet alleen kijkt naar het eindresultaat van een student, maar zijn hele studietijdbord bekijkt om te zien waar hij vastliep, en hem dan precies helpt om die ene moeilijke opgave te begrijpen. Dit maakt AI niet alleen transparanter, maar ook beter en veiliger voor gebruik in belangrijke gebieden zoals de geneeskunde.