ReasonX: Declarative Reasoning on Explanations

Das Paper stellt ReasonX vor, ein erklärbares KI-Werkzeug, das auf einer deklarativen Algebra von Operatoren über linearen Constraints basiert und mittels Mixed-Integer Linear Programming (MILP) interaktive, abstraktionsfähige Erklärungen für Entscheidungsbaum-Modelle ermöglicht.

Laura State, Salvatore Ruggieri, Franco Turini

Veröffentlicht 2026-03-02
📖 4 Min. Lesezeit☕ Kaffeepausen-Lektüre

Each language version is independently generated for its own context, not a direct translation.

REASONX: Der „Übersetzer" für die Gedanken von Künstlicher Intelligenz

Stellen Sie sich vor, Sie haben einen sehr klugen, aber extrem verschlossenen Assistenten (eine Künstliche Intelligenz oder KI), der Ihnen sagt: „Nein, ich leih dir kein Geld." Wenn Sie fragen: „Warum?", antwortet er oft nur: „Weil ich das so berechnet habe." Das ist frustrierend. Wir wollen wissen, welche Regeln er befolgt hat und was wir tun müssten, damit er „Ja" sagt.

Das ist das Problem, das die Wissenschaftler Laura State, Salvatore Ruggieri und Franco Turini mit ihrer neuen Erfindung REASONX lösen wollen.

Hier ist eine einfache Erklärung, wie das funktioniert, ohne komplizierte Fachbegriffe:

1. Das Problem: Der undurchsichtige „Black Box"-Koch

Die meisten KI-Modelle sind wie ein Koch in einer Black Box. Er kocht einen tollen Eintopf (die Entscheidung), aber Sie können nicht sehen, welche Zutaten er genau verwendet hat. Bisherige Werkzeuge, die versuchen, diese KI zu erklären, sind oft wie ein Koch, der Ihnen nur eine Liste der Zutaten gibt, aber nicht sagt, wie viel davon in den Topf kam oder was passiert, wenn Sie eine Zutat weglassen.

2. Die Lösung: REASONX als „Regel-Detektiv"

REASONX ist ein Werkzeug, das die KI nicht nur beobachtet, sondern mit ihr spricht. Es baut eine Brücke zwischen der undurchsichtigen KI und dem menschlichen Verstand.

Stellen Sie sich REASONX wie einen Übersetzer vor, der zwei Sprachen beherrscht:

  • Sprache A (Die KI): Eine Welt aus Zahlen und strengen mathematischen Regeln.
  • Sprache B (Der Mensch): Eine Welt aus Fragen wie „Was wäre, wenn...?" oder „Warum genau?".

3. Wie funktioniert das? (Die Magie der „Linearen Zäune")

Die Forscher nutzen eine spezielle Art von Mathematik, die man sich wie unsichtbare Zäune vorstellen kann.

  • Die Entscheidung als Landkarte: Die KI trifft Entscheidungen basierend auf einem riesigen Land. REASONX zeichnet für jede Entscheidung der KI einen „Zaun" (eine mathematische Regel) auf.
    • Beispiel: Ein Zaun sagt: „Wenn dein Alter über 30 ist UND dein Einkommen über 50.000 €, dann ist die Seite 'Kredit genehmigt'."
  • Das große Plus von REASONX: Andere Werkzeuge schauen nur auf eine ganz bestimmte Person (z. B. „Herr Müller, 35 Jahre, 55.000 €"). REASONX kann aber auch mit unvollständigen Informationen umgehen.
    • Die Analogie: Stellen Sie sich vor, Sie fragen nicht nur nach Herr Müller, sondern nach einer ganzen Gruppe: „Was passiert mit allen Menschen, die mindestens 30 Jahre alt sind?" REASONX kann diese ganze Gruppe als eine einzige Regel beschreiben. Es ist, als würde man nicht nur einen einzelnen Stein betrachten, sondern das ganze Muster im Mosaik sehen.

4. Was kann man damit machen? (Das „Was-wäre-wenn"-Spiel)

Mit REASONX können Sie nicht nur fragen, warum etwas passiert ist, sondern aktiv experimentieren:

  • Der „Was-wäre-wenn"-Modus: Sie können sagen: „Okay, ich will einen Kredit bekommen. Was muss ich ändern?"
    • REASONX rechnet sofort aus: „Wenn Sie 2.000 € mehr verdienen ODER wenn Sie keine Autoleasing-Verpflichtung haben, dann ändern sich die Zäune und Sie bekommen den Kredit."
  • Der „Zeit-Reisende"-Modus: KI-Modelle ändern sich oft, wenn sie mit neuen Daten trainiert werden. REASONX kann zwei verschiedene Versionen der KI vergleichen.
    • Die Analogie: Es ist wie ein Vergleich zwischen dem Koch von heute und dem Koch von letzter Woche. „Habe ich heute andere Regeln als letztes Jahr? Warum hat die KI mich damals abgelehnt und heute nicht?"
  • Der „Regel-Prüfer": Sie können überprüfen, ob die KI diskriminiert. „Verwendet die KI das Geschlecht oder die Herkunft als Zaun, um Entscheidungen zu treffen?" REASONX kann diese versteckten Zäune aufdecken.

5. Warum ist das besonders? (Die „Dialog"-Funktion)

Die meisten Erklärungs-Tools sind wie ein One-Way-Postkasten: Sie schicken eine Frage, bekommen eine Antwort, fertig.

REASONX ist wie ein Gespräch.

  • Sie fragen: „Warum wurde ich abgelehnt?"
  • REASONX antwortet: „Weil Ihr Einkommen zu niedrig war."
  • Sie sagen: „Aber ich habe gesagt, ich habe einen neuen Job!"
  • REASONX passt die Regeln sofort an und sagt: „Ah, dann ändern sich die Zäune. Mit dem neuen Job sind Sie jetzt im grünen Bereich."

Das System erlaubt es, Antworten als neue Fragen zu verwenden. Das macht es sehr flexibel und interaktiv.

Zusammenfassung in einem Bild

Stellen Sie sich vor, Sie stehen in einem riesigen Labyrinth aus Wänden (den KI-Regeln).

  • Alte Tools sagen Ihnen nur: „Sie stehen hier und die Wand ist hier."
  • REASONX gibt Ihnen eine magische Karte. Sie können auf der Karte sagen: „Zeig mir alle Wege, die zu einem Ausgang führen, wenn ich meine Jacke ausziehe." Oder: „Zeig mir, wo die Wände anders sind als gestern."

Fazit:
REASONX ist ein Werkzeug, das KI-Entscheidungen nicht nur erklärt, sondern sie verstehbar und verhandelbar macht. Es hilft uns, die „Black Box" zu öffnen, Regeln zu verstehen und zu sehen, wie wir unsere Situation ändern können, um bessere Ergebnisse zu erzielen – alles basierend auf klaren, mathematischen Regeln, die aber für Menschen leicht zu lesen sind.

Erhalten Sie solche Paper in Ihrem Posteingang

Personalisierte tägliche oder wöchentliche Digests passend zu Ihren Interessen. Gists oder technische Zusammenfassungen, in Ihrer Sprache.

Digest testen →