What is Missing? Explaining Neurons Activated by Absent Concepts

Diese Arbeit zeigt, dass gängige Methoden der erklärbaren Künstlichen Intelligenz oft übersehen, dass Neuronen durch das Fehlen von Konzepten aktiviert werden, und schlägt einfache Erweiterungen vor, um diese „kodierten Abwesenheiten" in Deep-Learning-Modellen zu identifizieren und zu erklären.

Robin Hesse, Simone Schaub-Meyer, Janina Hesse, Bernt Schiele, Stefan Roth

Veröffentlicht Wed, 11 Ma
📖 5 Min. Lesezeit🧠 Tiefgang

Each language version is independently generated for its own context, not a direct translation.

Titel: Was fehlt? Warum das „Nicht-Sehen" für KI genauso wichtig ist wie das „Sehen"

Stell dir vor, du bist ein Detektiv, der einen Fall löst. Normalerweise suchst du nach Hinweisen: „Aha, hier ist ein Fingerabdruck! Hier ist ein verkratztes Fenster!" Das ist, wie die meisten aktuellen Künstlichen Intelligenzen (KI) arbeiten. Sie schauen auf ein Bild und sagen: „Ich sehe eine Katze, weil ich Schnurrhaare und Ohren erkenne."

Aber diese neue Forschung von Robin Hesse und seinem Team sagt: Warte mal! Du hast etwas Wichtiges übersehen.

Manchmal ist die entscheidende Antwort nicht das, was da ist, sondern das, was nicht da ist.

Die große Entdeckung: Das „Leere" ist ein Hinweis

Die Forscher haben herausgefunden, dass neuronale Netze (die „Gehirne" der KI) nicht nur lernen, Dinge zu erkennen, sondern auch lernen, das Fehlen von Dingen zu nutzen.

Ein einfaches Beispiel:
Stell dir vor, du musst einen Irish Setter (eine Hunderasse) von einem Sussex Spaniel unterscheiden.

  • Der alte Weg (KI): Die KI schaut auf das Bild und sagt: „Ich sehe lange Ohren und ein braunes Fell. Das ist ein Irish Setter!"
  • Der neue Weg (Forschungsergebnis): Die KI denkt auch: „Ich sehe lange Ohren, ABER ich sehe kein typisches Sussex-Spaniel-Gesicht. Da dieses fehlt, bin ich mir sicherer, dass es ein Irish Setter ist."

Das Fehlen eines bestimmten Merkmals (des Spaniel-Gesichts) aktiviert im Gehirn der KI einen bestimmten Schalter. Das ist wie ein Alarm, der nicht losgeht, wenn etwas da ist, sondern wenn etwas fehlt.

Warum haben wir das übersehen?

Bisher waren die Werkzeuge, mit denen wir KIs erklären (man nennt sie XAI), wie eine Taschenlampe, die nur auf das Licht scheint.

  • Die Taschenlampe (Alte Methode): Sie leuchtet auf die Pixel, die hell sind (die Ohren, die Nase). Sie zeigt uns: „Hier ist der Grund für die Entscheidung!"
  • Das Problem: Wenn die Entscheidung aber darauf beruht, dass etwas dunkel ist (weil es fehlt), leuchtet die Taschenlampe ins Leere. Sie sagt: „Hier ist nichts zu sehen." Aber für die KI war dieses „Nichts" der wichtigste Hinweis!

Die Forscher nennen das „codierte Abwesenheit". Es ist eine geheime Sprache, die die KI spricht, aber die wir bisher nicht gehört haben.

Die Lösung: Eine neue Art zu leuchten

Um dieses Geheimnis zu lüften, haben die Forscher zwei einfache Tricks entwickelt:

  1. Der „Gegenteil-Test" (Non-Target Attribution):
    Statt zu fragen: „Was macht dieses Bild zu einem Irish Setter?", fragen wir: „Was würde dieses Bild nicht zu einem Irish Setter machen?"

    • Analogie: Stell dir vor, du suchst nach einem Dieb. Die alte Methode zeigt dir, wo der Dieb steht. Die neue Methode zeigt dir, wo der Dieb nicht steht, und sagt: „Aha! Weil er nicht in der Küche ist, muss er im Garten sein."
    • In der Praxis: Die KI wird gezwungen, sich ein Bild anzusehen, auf dem der „falsche" Hund (der Spaniel) zu sehen ist. Die KI reagiert darauf mit einem negativen Signal. Das zeigt uns: „Oh, wenn dieser Hund da ist, wird mein Irish Setter-Schalter heruntergefahren. Also ist das Fehlen dieses Hundes mein Beweis!"
  2. Das „Minimierungs-Verfahren" (Feature Visualization):
    Normalerweise versuchen wir, Bilder zu erzeugen, die eine KI maximal aufregen (z. B. ein Bild, das so sehr nach einer Katze aussieht, dass die KI fast explodiert).
    Die neuen Forscher fragen stattdessen: „Was erzeugt das geringste Interesse?"

    • Analogie: Stell dir vor, du willst wissen, was ein Kind hasst. Du gibst ihm nicht das Lieblingsspielzeug, sondern du fragst: „Was macht das Kind am unglücklichsten?" Wenn du ihm eine Spinne zeigst und es schreit, hast du herausgefunden, dass das Fehlen von Spinnen für sein Wohlbefinden wichtig ist.
    • Die KI sucht nach Mustern, die sie am meisten „stören". Diese Muster sind genau das, was sie nicht sehen will, um eine bestimmte Klasse zu erkennen.

Warum ist das so wichtig?

  1. Bessere Unterscheidung: Bei feinen Unterschieden (wie bei Hunderassen oder medizinischen Bildern) ist es oft wichtiger zu wissen, was nicht da ist, als was da ist.
  2. Fairere KI (Entfernung von Vorurteilen):
    Das ist der spannendste Teil. KI lernt oft schlaue, aber faule Abkürzungen.
    • Beispiel: In einer Datenbank für Hautkrebs waren alle gutartigen (harmlosen) Muttermale zufällig mit bunten Markierungen versehen. Die KI lernte: „Bunte Markierung = harmlos".
    • Wenn man das Markierungsweg macht, wird die KI verwirrt.
    • Die Forscher zeigen: Die KI lernte nicht nur, dass die Markierung da ist (für harmlos), sondern auch, dass das Fehlen der Markierung = Krebs bedeutet.
    • Mit ihren neuen Methoden können sie diese „faulen Abkürzungen" finden und die KI zwingen, wirklich auf die Haut zu schauen, statt auf die Markierung.

Fazit

Diese Arbeit sagt uns: Um KI wirklich zu verstehen, müssen wir aufhören, nur auf das zu schauen, was leuchtet. Wir müssen lernen, die Schatten zu lesen.

Die KI nutzt das „Nicht-Da-Sein" als mächtiges Werkzeug. Wenn wir verstehen, wie sie das macht, können wir sie nicht nur besser erklären, sondern auch fairer und robuster machen. Es ist, als würden wir einem Detektiv endlich beibringen, nicht nur nach Spuren zu suchen, sondern auch zu bemerken, dass eine Tür offen steht, obwohl sie zugeschlossen sein sollte.