Beyond Edge Deletion: A Comprehensive Approach to Counterfactual Explanation in Graph Neural Networks

Die Arbeit stellt XPlore vor, ein neuartiges, gradientengesteuertes Framework für die Erzeugung von kontrafaktischen Erklärungen in Graph Neural Networks, das durch die gemeinsame Optimierung von Kantenänderungen und Knotenmerkmalen sowie die Einführung einer kosinusähnlichkeitsbasierten Metrik die Validität und Glaubwürdigkeit der Erklärungen signifikant verbessert.

Matteo De Sanctis, Riccardo De Sanctis, Stefano Faralli, Paola Velardi, Bardh Prenkaj

Veröffentlicht 2026-03-05
📖 4 Min. Lesezeit☕ Kaffeepausen-Lektüre

Each language version is independently generated for its own context, not a direct translation.

Das Problem: Der schwarze Kasten

Stell dir vor, du hast einen sehr klugen, aber verschlossenen Roboter (das ist die Graph Neural Network, kurz GNN). Dieser Roboter schaut sich komplexe Netzwerke an – zum Beispiel Moleküle in der Medizin oder Freunde in einem sozialen Netzwerk – und trifft Entscheidungen. Er sagt: „Dieses Molekül ist giftig" oder „Dieser Tweet ist Fake News".

Das Problem: Niemand weiß genau, warum er das sagt. Er ist wie ein schwarzer Kasten. Wenn er einen Fehler macht, können wir ihn nicht korrigieren, weil wir seine Denkweise nicht verstehen. In Bereichen wie der Medizin oder bei Finanzbetrug ist das gefährlich. Wir brauchen Erklärungen!

Die alte Lösung: Nur Löschen

Bisher haben Forscher versucht, den Roboter zu verstehen, indem sie ihm Kanten (Verbindungen) im Netzwerk einfach weggenommen haben.

  • Die Analogie: Stell dir vor, der Roboter sagt: „Dieses Haus ist unsicher." Die alte Methode würde sagen: „Okay, lass uns ein Fenster entfernen. Ist es jetzt sicher? Nein? Gut, lass uns eine Tür entfernen."
  • Das Problem: Manchmal reicht das Löschen nicht. Vielleicht muss man dem Roboter zeigen, dass ein neues Fenster (eine neue Verbindung) oder eine andere Farbe an der Wand (eine Änderung der Eigenschaften) die Entscheidung ändert. Die alten Methoden waren zu starr; sie konnten nur Dinge wegnehmen, aber nichts hinzufügen oder verändern.

Die neue Lösung: XPlore – Der kreative Architekt

Die Autoren dieses Papiers haben XPlore entwickelt. Das ist wie ein kreativer Architekt, der nicht nur Mauern einreißt, sondern das ganze Haus umgestalten kann.

XPlore macht drei Dinge, die andere nicht können:

  1. Kanten löschen: (Wie früher) – Eine Verbindung entfernen.
  2. Kanten hinzufügen: – Eine neue Verbindung schaffen, wo keine war.
  3. Eigenschaften ändern: – Die „Farbe" oder den „Wert" eines Knotens (z. B. eines Atoms oder einer Person) verändern, ohne ihn zu löschen.

Die Metapher:
Stell dir vor, du willst erklären, warum ein bestimmtes Auto als „sportlich" eingestuft wurde.

  • Die alte Methode würde sagen: „Wenn wir die Räder entfernen, ist es kein Sportwagen mehr." (Das ist oft zu extrem und unrealistisch).
  • XPlore sagt: „Wenn wir die Farbe von Rot auf Blau ändern und ein Spoiler hinzufügen, wird es vielleicht als 'Familienauto' eingestuft." Das ist eine viel natürlichere und nützlichere Erklärung.

Wie funktioniert das? (Der „Magische Kompass")

XPlore nutzt einen Gradienten (eine Art mathematischer Kompass).
Stell dir vor, du stehst auf einem Berg (dem aktuellen Zustand des Netzwerks) und willst in ein anderes Tal (eine andere Entscheidung des Roboters) kommen.

  • Die alten Methoden liefen nur bergab, indem sie Steine wegräumten.
  • XPlore nutzt den Kompass, um genau zu sehen, in welche Richtung der Boden am steilsten abfällt, um das Ziel zu erreichen. Es weiß genau, ob es einen neuen Pfad bauen (Kante hinzufügen) oder einen bestehenden Weg ändern (Eigenschaft anpassen) muss, um das Ziel mit dem minimalsten Aufwand zu erreichen.

Warum ist das besser? (Die „Semantische Treue")

Ein großes Problem bei alten Methoden war, dass sie manchmal völlig unsinnige Ergebnisse lieferten.

  • Das OOD-Problem (Out-of-Distribution): Stell dir vor, du erklärst einem Roboter, was ein „Hund" ist, indem du ihm ein Bild zeigst, auf dem ein Hund mit einem Elefantenohr ist. Der Roboter sagt: „Das ist kein Hund!" Aber das liegt nur daran, dass er noch nie einen Hund mit Elefantenohr gesehen hat. Das ist eine schlechte Erklärung.
  • Die XPlore-Lösung: XPlore achtet darauf, dass das Ergebnis immer noch wie ein „Hund" aussieht. Es nutzt einen kosinischen Ähnlichkeits-Maßstab (eine Art mathematischer Maßstab für „Gefühl"). Es fragt: „Sieht das neue Ergebnis noch ähnlich aus wie das Original, nur mit einer kleinen, logischen Änderung?"
    • Ergebnis: XPlore findet Erklärungen, die nicht nur funktionieren, sondern auch logisch und realistisch sind.

Das Fazit in einem Satz

XPlore ist wie ein diplomatischer Übersetzer für künstliche Intelligenz: Statt dem Roboter nur zu sagen „Tu das nicht!", zeigt es ihm sanft und kreativ, wie eine winzige, sinnvolle Änderung (Hinzufügen, Löschen oder Ändern) seine Meinung komplett umkehren kann – und das alles, ohne das System zu überfordern oder unsinnige Ergebnisse zu produzieren.

Warum ist das wichtig?
Weil wir in Zukunft mehr Vertrauen in KI brauchen. Wenn eine KI sagt „Dieses Medikament ist gefährlich", wollen wir nicht nur wissen, dass sie das sagt, sondern welche kleine Änderung am Molekül es sicher machen würde. XPlore liefert genau diese Antwort.

Erhalten Sie solche Paper in Ihrem Posteingang

Personalisierte tägliche oder wöchentliche Digests passend zu Ihren Interessen. Gists oder technische Zusammenfassungen, in Ihrer Sprache.

Digest testen →