Measuring the Fragility of Trust: Devising Credibility Index via Explanation Stability (CIES) for Business Decision Support Systems

Diese Arbeit stellt den Credibility Index via Explanation Stability (CIES) vor, eine mathematisch fundierte Metrik, die die Stabilität von Erklärungen in erklärbarer KI unter realistischen Geschäftsbedingungen misst und damit Entscheidungsträgern ein zuverlässiges Instrument zur Bewertung der Vertrauenswürdigkeit von KI-gestützten Entscheidungssystemen bietet.

Alin-Gabriel Vaduva, Simona-Vasilica Oprea, Adela Bara

Veröffentlicht 2026-03-06
📖 4 Min. Lesezeit☕ Kaffeepausen-Lektüre

Each language version is independently generated for its own context, not a direct translation.

🛡️ Der „Vertrauens-Test" für KI-Entscheidungen

Stellen Sie sich vor, Sie gehen zu einem Banker, um einen Kredit zu beantragen. Der Banker nutzt eine KI, die sagt: „Nein, wir geben Ihnen keinen Kredit."

Der Banker zeigt Ihnen dann die Begründung der KI: „Wir lehnen ab, weil Ihr monatliches Einkommen zu niedrig ist."

Das Problem: Was passiert, wenn Sie dem Banker sagen: „Moment mal, mein Einkommen war nur um 50 Euro falsch angegeben"? Wenn die KI dann plötzlich sagt: „Ah, dann ist es eigentlich Ihr Alter, das das Problem ist", dann ist die erste Erklärung nicht vertrauenswürdig. Sie war nur ein Zufall.

Genau dieses Problem untersucht das Papier. Es fragt: Ist die Begründung einer KI stabil, oder ändert sie sich, wenn wir die Daten nur ein winziges bisschen verrücken?

🧪 Die neue Erfindung: CIES (Der „Vertrauens-Index")

Die Autoren haben eine neue Messgröße erfunden, die sie CIES nennen (Credibility Index via Explanation Stability). Man kann sich das wie einen „Vertrauens-Warnsystem" vorstellen.

Hier ist die Idee mit einer einfachen Analogie:

1. Das „Wackel-Experiment"

Stellen Sie sich vor, Sie haben ein Haus aus Karten (das ist Ihre KI-Entscheidung).

  • Die alte Methode: Man schaut nur, ob das Haus stehen bleibt, wenn man leicht pustet (ob die Vorhersage „Kredit ja/nein" gleich bleibt).
  • Die neue Methode (CIES): Man schaut sich an, welche Karten im Inneren wackeln.
    • Wenn die wichtigste Karte (z. B. „Einkommen") wackelt und durch eine andere ersetzt wird, ist das Haus instabil. Das ist schlecht!
    • Wenn nur eine unwichtige Karte ganz hinten (z. B. „Lieblingsfarbe") wackelt, ist das egal. Das Haus ist stabil.

CIES misst genau das: Wie stark wackeln die wichtigsten Karten, wenn wir die Daten leicht verrauschen?

2. Die „Gewichtung" (Warum das Wichtigste wichtiger ist)

Das Besondere an CIES ist, dass es nicht alle Karten gleich behandelt.

  • Stellen Sie sich vor: Sie sind ein Manager. Ihnen ist es egal, ob sich die Begründung für die 15. wichtigste Sache ändert. Aber wenn sich die Begründung für die Nummer 1 ändert, ist das ein riesiges Problem.
  • CIES bestraft diese Änderungen der „Nummer 1" extrem hart. Es ist wie ein Richter, der sagt: „Wenn sich der Hauptgrund ändert, ist die ganze Erklärung ungültig."

🧪 Was haben die Forscher herausgefunden?

Sie haben diesen Test an echten Geschäftsdaten getestet (z. B. Kunden, die kündigen, Kreditrisiken, Mitarbeiter, die kündigen) und vier verschiedene KI-Modelle verglichen.

Hier sind die wichtigsten Erkenntnisse, übersetzt in Alltagssprache:

  • Nicht jede KI ist gleich stabil:
    • Random Forests (eine Art KI-Meute, die viele Bäume vergleicht) waren wie ein schwerer Fels: Selbst wenn man sie schüttelte, blieben ihre Begründungen stabil.
    • LightGBM und XGBoost (andere, schnellere KI-Typen) waren wie Glasvasen: Sie waren oft sehr genau in der Vorhersage, aber ihre Begründungen wackelten stark, besonders wenn die Daten unausgewogen waren (z. B. wenn es sehr wenige „schlechte" Kunden gibt).
  • Der „SMOTE"-Effekt (Das Auffüllen von Daten):
    • Oft füllt man Daten künstlich auf, um bessere Ergebnisse zu bekommen (wie wenn man eine Suppe mit mehr Wasser auffüllt, um mehr davon zu haben).
    • Die Forscher fanden heraus: Das Auffüllen der Daten macht die Vorhersage oft besser, aber es kann die Begründungen instabil machen. Man gewinnt an Genauigkeit, verliert aber an Vertrauen in die Erklärung.
  • Genauigkeit ≠ Vertrauen:
    • Eine KI kann zu 99 % richtig liegen (hohe Genauigkeit), aber ihre Begründung ist trotzdem Unsinn (niedriger CIES-Wert). Das ist wie ein Glücksbringer, der immer das richtige Wetter vorhersagt, aber nur zufällig. Man kann ihm nicht trauen.

🎯 Warum ist das für uns wichtig?

In der echten Welt (Banken, Versicherungen, Personalabteilungen) reicht es nicht, dass die KI „richtig" liegt. Die Menschen müssen verstehen, warum sie liegt.

  • Für Manager: CIES ist wie ein Qualitätssiegel. Bevor man eine KI in die Praxis einführt, kann man prüfen: „Ist die Begründung stabil genug, um sie einem Kunden zu erklären?"
  • Für die Gesellschaft: Wenn eine KI einem Menschen den Kredit verweigert, muss die Begründung auch morgen noch gelten, wenn sich die Daten nur minimal ändern. Sonst ist das System unfair und unzuverlässig.

Zusammenfassung in einem Satz

Dieses Papier hat eine neue Waage erfunden, die nicht misst, wie genau eine KI ist, sondern wie zuverlässig ihre Ausreden sind, wenn sich die Welt ein kleines bisschen verändert – und zeigt uns, welche KI-Modelle wirklich vertrauenswürdig sind.

Get papers like this in your inbox

Personalized daily or weekly digests matching your interests. Gists or technical summaries, in your language.

Try Digest →