Concerning Uncertainty -- A Systematic Survey of Uncertainty-Aware XAI

Diese Arbeit bietet eine systematische Übersicht über unsicherheitsbewusste erklärbare KI (UAXAI), indem sie gängige Methoden zur Unsicherheitsquantifizierung und -integration analysiert, die aktuellen Defizite in der Evaluierung aufzeigt und die Notwendigkeit einheitlicher Prinzipien sowie vielversprechender Ansätze wie Kalibrierung und kontrafaktische Erklärungen für eine zuverlässigere Interpretierbarkeit betont.

Helena Löfström, Tuwe Löfström, Anders Hjort, Fatima Rabia Yapicioglu

Veröffentlicht 2026-03-31
📖 5 Min. Lesezeit🧠 Tiefgang

Each language version is independently generated for its own context, not a direct translation.

Stellen Sie sich vor, Sie sitzen in einem autonomen Auto. Das Auto sagt Ihnen: „Wir fahren jetzt links." Aber es sagt nicht, wie sicher es sich ist. Ist es zu 100 % sicher, weil die Straße klar ist? Oder ist es nur zu 60 % sicher, weil der Regen die Sensoren verwirrt?

Das ist das Problem, das dieses Papier untersucht. Es geht um KI-Erklärungen, die auch ihre eigene Unsicherheit ehrlich kommunizieren.

Hier ist die Geschichte dahinter, einfach erklärt:

1. Das Problem: Der „Black-Box"-Chef

Künstliche Intelligenz (KI) wird immer klüger, aber sie ist oft wie ein Chef, der nur das Ergebnis schreit, ohne zu erklären, wie er darauf kam.

  • Früher (XAI): Forscher haben versucht, dem Chef eine Brille aufzusetzen, damit wir sehen können, warum er links fährt (z. B. „Weil dort ein Stoppschild steht"). Das nennt man Explainable AI (Erklärbare KI).
  • Das neue Problem: Aber was, wenn der Chef sich nicht sicher ist? Was, wenn das Stoppschild im Nebel kaum zu sehen ist? Eine gute Erklärung muss nicht nur sagen „Links!", sondern auch: „Ich bin mir zu 80 % sicher, aber es könnte auch rechts sein."

Das neue Feld heißt UAXAI (Unsicherheitsbewusste Erklärbare KI). Es ist wie ein ehrlicher Assistent, der nicht nur die Antwort gibt, sondern auch sagt: „Ich bin mir ziemlich sicher" oder „Hier bin ich ratlos."

2. Die drei Arten von Unsicherheit (Das „Zwiebel"-Modell)

Das Papier erklärt, dass Unsicherheit nicht alles gleich ist. Man kann sie wie eine Zwiebel schälen:

  • Der „Rauschen"-Teil (Aleatorische Unsicherheit): Das ist wie das Wetter. Es regnet einfach, und man kann das nicht ändern. Die Daten sind von Natur aus chaotisch (z. B. ein verschwommener Fingerabdruck). Das ist unvermeidbar.
  • Der „Wissen"-Teil (Epistemische Unsicherheit): Das ist wie mangelnde Erfahrung. Der Chef hat noch nie einen Fingerabdruck gesehen, weil er nur in trockenen Klimazonen gearbeitet hat. Das ist Unsicherheit, die man durch mehr Training oder bessere Daten beheben könnte.
  • Der „Erklärungs"-Teil: Manchmal ist die KI unsicher, aber der Erklärungs-Algorithmus ist es auch. Es ist, als würde ein Dolmetscher versuchen, eine Sprache zu übersetzen, die er selbst nicht gut kennt. Die Erklärung selbst ist dann wackelig.

3. Wie machen sie das? (Die drei Werkzeuge)

Die Forscher haben geschaut, wie man diese Unsicherheit in die Erklärung einbaut. Sie haben drei Hauptwerkzeuge gefunden:

  1. Der „Vertrauens-Berater" (Bayes & Monte Carlo):
    Stellen Sie sich vor, Sie fragen nicht nur einen Experten, sondern 100 Experten. Wenn 99 von ihnen sagen „Links" und einer sagt „Rechts", dann ist die Antwort „Links" mit einer kleinen Unsicherheit versehen. Das ist wie eine Meinungsumfrage innerhalb der KI.
  2. Der „Sicherheits-Gürtel" (Konforme Methoden):
    Das ist wie ein Sicherheitsnetz. Statt einen exakten Punkt zu nennen, gibt die KI einen Bereich an: „Wir fahren mit 95 % Sicherheit im Bereich zwischen Straße A und Straße B." Das ist mathematisch bewiesen und sehr zuverlässig, wie ein Sicherheitsgurt im Auto.
  3. Der „Warnschild"-Ansatz:
    Die KI sagt: „Ich erkläre dir, warum ich links fahre, aber ich füge ein Warnschild hinzu: Achtung, hier ist viel Rauschen!". So weiß der Mensch, wann er der KI blind vertrauen darf und wann er selbst nachschauen muss.

4. Was fehlt noch? (Die Baustelle)

Das Papier ist sehr kritisch, aber konstruktiv. Es sagt: „Wir bauen tolle Gebäude, aber wir haben keine einheitlichen Baupläne."

  • Viele verschiedene Messlatten: Jeder Forscher misst die „Güte" der Erklärung anders. Manche schauen nur auf die Rechenleistung, andere auf die Genauigkeit. Es fehlt ein einheitlicher Standard, wie man prüft, ob eine unsichere Erklärung wirklich gut ist.
  • Vergessen der Menschen: Die meisten Studien testen nur, ob der Computer die Rechnung richtig macht. Aber versteht der Mensch die Warnung? Wenn die KI sagt „Ich bin unsicher", verstehen die Leute das als „Ich bin dumm" oder als „Pass auf"? Das wird noch zu wenig erforscht.
  • Der „Wackel-Effekt": Manchmal ändert sich die Erklärung, wenn man die KI nur ganz leicht neu trainiert. Das ist wie ein Kompass, der bei jedem Windhauch die Richtung ändert. Das ist gefährlich.

5. Das Fazit: Der Weg nach vorne

Die Autoren sagen im Grunde:

„Es reicht nicht mehr, nur zu sagen, was die KI tut. Wir müssen ihr beibringen, wie sicher sie sich ist, und uns sicherstellen, dass wir Menschen diese Unsicherheit richtig verstehen."

Die Zukunft sieht so aus:
Stellen Sie sich eine KI vor, die wie ein erfahrener Pilot spricht:

  • „Ich fliege auf Kurs A." (Die Erklärung)
  • „Aber wegen des Sturms bin ich nur zu 80 % sicher." (Die Unsicherheit)
  • „Wenn Sie wollen, kann ich Ihnen zeigen, welche Alternativen wir haben." (Die Konforme Methode)

Das Papier ist ein Aufruf, diese Art von ehrlicher, transparenter und sicherer KI zu bauen, damit wir ihr in wichtigen Situationen (wie Medizin oder Autofahren) wirklich vertrauen können – nicht blind, sondern mit offenen Augen.