What is Missing? Explaining Neurons Activated by Absent Concepts

Deze paper toont aan dat mainstream XAI-methoden vaak vergeten dat neurale netwerken ook geactiveerd worden door het ontbreken van concepten, en stelt twee eenvoudige uitbreidingen voor om deze 'gecodeerde afwezigheden' in beeld te brengen en te gebruiken voor betere uitleg en debiasing.

Robin Hesse, Simone Schaub-Meyer, Janina Hesse, Bernt Schiele, Stefan Roth

Gepubliceerd Wed, 11 Ma
📖 5 min leestijd🧠 Diepgaand

Each language version is independently generated for its own context, not a direct translation.

Wat ontbreekt er? Waarom "niet-zien" net zo belangrijk is als "zien" voor kunstmatige intelligentie

Stel je voor dat je een detective bent die een raadsel moet oplossen. Meestal kijken we naar de aanwijzingen die aanwezig zijn: een vingerafdruk, een getuige, een spoor. Maar wat als het ontbreken van een aanwijzing juist het belangrijkste bewijs is? Wat als het feit dat er geen vingerafdruk op de deur is, bewijst dat de dader een sleutel gebruikte?

Dit is precies wat deze paper over Explainable AI (XAI) – oftewel "uitlegbare kunstmatige intelligentie" – ontdekt. Tot nu toe hebben onderzoekers zich vooral gericht op wat een computer ziet. Maar deze auteurs tonen aan dat neurale netwerken (de hersenen van AI) ook heel slim zijn in het detecteren van wat er niet is. En dat is iets wat de huidige uitleg-methoden vaak missen.

Hier is de uitleg in simpele taal, met een paar creatieve vergelijkingen:

1. Het probleem: De "Blinde Vlek" van de AI

Stel je een AI voor die moet bepalen of een hond een Ierse Setter is.

  • Hoe het nu werkt: De AI kijkt naar de neus en de poten van de hond. Als die eruitzien als die van een Setter, zegt de AI: "Ja, dit is een Setter!"
  • Het gemiste stukje: De AI kijkt ook naar wat er niet is. Als de hond een snuit heeft die te lang is voor een Setter, maar perfect past bij een Spaniël, dan "ziet" de AI die snuit niet. En dat is cruciaal! De AI denkt: "Oké, hij heeft de neus van een Setter, en hij heeft geen neus van een Spaniël. Dus het is zeker een Setter."

Huidige uitleg-methoden (zoals "attribution maps" die laten zien welke pixels belangrijk zijn) kijken alleen naar de aanwezige pixels. Ze kunnen de "geen-Spaniël-neus" niet tonen, omdat die er immers niet is. Het is alsof je een kaart tekent van een stad, maar alleen de gebouwen tekent en vergeet te vermelden dat er een leeg stukje grond is waar een ander gebouw had kunnen staan, maar dat juist de reden is waarom dit gebouw hier staat.

2. De oplossing: Kijk naar het "Niet"

De auteurs van deze paper zeggen: "We moeten de AI leren uitleggen wat er ontbreekt." Ze noemen dit "Encoded Absence" (gecodeerde afwezigheid).

Ze hebben twee simpele trucjes bedacht om dit te laten zien:

  • Truc 1: De "Omgekeerde" Blik (Non-target Attribution)
    Normaal vragen we de AI: "Wat maakt deze foto een Setter?"
    De nieuwe methode vraagt: "Wat zou deze foto geen Setter maken?"
    Door te kijken naar foto's van andere honden (bijv. Spaniëls) en te vragen wat die niet doen voor de Setter-classificatie, zien we welke kenmerken de AI juist wil vermijden. Als de AI een Spaniël ziet en denkt "Nee, dat is geen Setter", dan is dat een sterk bewijs dat de afwezigheid van Spaniël-kenmerken belangrijk is.

  • Truc 2: De "Minimale" Droom (Feature Visualization through Minimization)
    Normaal vragen we de AI: "Wat is het allerleukste plaatje voor een Setter?" (Dan zie je een Setter).
    De nieuwe methode vraagt: "Wat is het allerleukste plaatje om een Spaniël te vermijden?"
    Als je de AI dwingt om een plaatje te maken dat de "Setter-neuron" zo min mogelijk laat branden, zie je vaak een plaatje vol met Spaniël-kenmerken. Dit bewijst dat de AI die kenmerken juist wil uitsluiten.

3. Waarom is dit belangrijk? (De Analogie van de Vlieg)

De paper begint met een mooi voorbeeld uit de natuur: de fruitvlieg.
Een fruitvlieg kan onderscheid maken tussen een vlucht naar rechts en een aanval van een roofdier.

  • Een specifieke zenuwcel in het oog van de vlieg gaat af als er beweging naar rechts is.
  • MAAR: Diezelfde cel gaat alleen af als er geen beweging naar links is.
    Als er beweging naar links is (zoals bij een roofdier dat op je afkomt), wordt de cel uitgeschakeld. De vlieg reageert dus op de afwezigheid van links-beweging.

De auteurs tonen aan dat onze moderne AI's (zoals die in je telefoon of op Google) precies hetzelfde doen. Ze gebruiken "niet-zien" net zo slim als de vlieg.

4. Het grote voordeel: Voorkomen van vooroordelen

Dit is misschien wel het coolste deel. AI's zijn vaak vooroordeelsvol.
Stel je een AI voor die moet zeggen of een huidplek kwaadaardig (kanker) of goedaardig is.

  • Het probleem: In de trainingsdata bleek dat goedaardige plekken vaak gekleurd waren (door de camera of de arts), en kwaadaardige plekken vaak zwart/wit.
  • De oude AI: Leerde: "Als er kleur is -> Goedaardig. Als er geen kleur is -> Kwaadaardig."
  • De nieuwe methode: De auteurs tonen aan dat de AI ook leert: "Als er geen kleur is -> Kwaadaardig."
    Als je de AI alleen probeert te "de-biasen" (vooroordeel wegwerken) door te zeggen "Kleur is niet belangrijk", werkt het niet. De AI gebruikt dan nog steeds de afwezigheid van kleur als bewijs.
    Met hun nieuwe methode kunnen ze de AI dwingen om te stoppen met het gebruiken van zowel de aanwezigheid als de afwezigheid van kleur als een shortcut. Hierdoor wordt de AI eerlijker en nauwkeuriger.

Samenvatting

Deze paper zegt eigenlijk: "Kijk niet alleen naar wat er is, maar ook naar wat er mist."

Tot nu toe hebben we AI's uitgelegd alsof ze alleen kijken naar de bomen in het bos. Deze auteurs tonen aan dat ze ook kijken naar de lege plekken tussen de bomen. Door te leren hoe we die "lege plekken" kunnen visualiseren, krijgen we een veel beter begrip van hoe AI echt denkt, en kunnen we ze slimmer en eerlijker maken.

Het is alsof je een gesprek voert met iemand die niet alleen zegt wat hij denkt, maar ook wat hij niet denkt. En dat maakt het gesprek veel waardevoller.