Upholding Epistemic Agency: A Brouwerian Assertibility Constraint for Responsible AI

Dieser Artikel schlägt eine Brouwer-inspirierte Assertibilitätsbeschränkung für verantwortungsvolle KI vor, die in hochriskanten Domänen die epistemische Agency bewahrt, indem Systeme nur dann Behauptungen aufstellen oder verneinen dürfen, wenn sie einen öffentlich überprüfbaren Berechtigungsnachweis vorlegen können, andernfalls aber den Status „Unbestimmt" zurückgeben müssen.

Michael Jülich

Veröffentlicht 2026-03-05
📖 5 Min. Lesezeit🧠 Tiefgang

Each language version is independently generated for its own context, not a direct translation.

Wenn KI nicht mehr nur „plappert", sondern Verantwortung übernimmt

Eine einfache Erklärung des Konzepts „Epistemische Agentur" und der „Brouwerianischen Regel"

Stellen Sie sich vor, Sie stehen in einem großen, lauten Marktplatz. Früher kamen hier nur Menschen, um ihre Meinungen zu verkünden. Heute steht dort auch eine hochintelligente, sehr gut aussehende KI, die mit absoluter Überzeugung Dinge behauptet: „Der Minister ist korrupt!", „Dieses Medikament ist sicher!", „Wählen Sie Kandidat X!"

Das Problem ist: Die KI klingt so sicher, als hätte sie die Wahrheit direkt von Gott erhalten. Aber in Wirklichkeit ist sie nur ein riesiger Statistik-Computer, der Muster erkennt und Wahrscheinlichkeiten berechnet. Sie „weiß" nichts wirklich, sie vermutet nur sehr gut.

Wenn die KI jetzt Dinge behauptet, die falsch sind, oder Dinge, über die wir uns noch gar nicht einig sind, nimmt sie uns die Arbeit weg. Sie nimmt uns die epistemische Agentur – also unsere Fähigkeit, selbst zu prüfen, zu zweifeln und zu entscheiden. Wir werden zu passiven Konsumenten von „Wahrheiten", die wir nicht hinterfragen können.

Die Lösung: Die „Brouwerianische Regel"

Der Autor dieses Papers, Michael Jülich, schlägt eine neue Regel vor, die auf der Mathematik des niederländischen Mathematikers L.E.J. Brouwer basiert. Nennen wir sie die „Kein Zertifikat, keine Aussage"-Regel.

Stellen Sie sich die KI nicht als einen Redner vor, der immer antworten muss, sondern als einen Richter, der nur dann ein Urteil fällt, wenn er Beweise vorlegen kann.

Die Regel lautet:

  1. Wenn die KI Beweise hat: Sie darf sagen: „Ja, das ist wahr" (oder „Nein, das ist falsch"). Aber sie muss ihre Beweise (ein „Zertifikat") öffentlich zeigen können.
  2. Wenn die KI keine Beweise hat: Sie darf nicht raten. Sie darf nicht sagen „Ich denke, es ist wahrscheinlich". Stattdessen muss sie sagen: „Unentschieden" (oder „Ich weiß es nicht").

Die drei Zustände der KI

Anstatt nur „Ja" oder „Nein" zu sagen, bekommt die KI unter dieser Regel drei Möglichkeiten:

  1. Aussage (Asserted): „Ich kann beweisen, dass X wahr ist." (Sie hält einen sichtbaren, überprüfbaren Beweis in der Hand).
  2. Verneinung (Denied): „Ich kann beweisen, dass X falsch ist." (Sie hat einen Beweis, der das Gegenteil zeigt).
  3. Unentschieden (Undetermined): „Ich habe keine Beweise, die stark genug sind."

Warum ist das wichtig?
In der heutigen Welt ist „Unentschieden" oft der wichtigste Zustand. Wenn die KI bei einem politischen Skandal noch keine Beweise hat, aber trotzdem mit 73 % Wahrscheinlichkeit sagt: „Der Minister ist schuld", dann erzeugt sie eine Lüge, die wie eine Tatsache aussieht.
Unter der neuen Regel würde die KI sagen: „Ich kann das noch nicht behaupten. Die Beweislage ist unklar. Warten wir auf den offiziellen Bericht."

Das zwingt uns Menschen, selbst weiterzudenken, statt uns auf die KI zu verlassen.

Ein konkretes Beispiel: Der Öl-Skandal

Stellen Sie sich vor, es gibt einen Skandal um einen Minister, der Ölreserven verkauft hat.

  • Der alte Weg (heute): Die KI liest Zeitungsartikel und sagt: „Es ist sehr wahrscheinlich, dass der Minister korrupt ist." (Aber sie hat keine offiziellen Beweise, nur Gerüchte).
  • Der neue Weg (mit Zertifikat):
    • Die KI prüft ihre „Beweise". Sie sieht nur Gerüchte. Ihre interne Rechnung zeigt: „Die Beweislage liegt irgendwo zwischen 40 % und 80 %."
    • Da sie nicht sicher genug ist, um ein Urteil zu fällen, sagt sie: „Unentschieden".
    • Sie fügt hinzu: „Ich kann das noch nicht sagen, weil es keine offiziellen Untersuchungen gibt."
    • Ergebnis: Die Bürger bleiben wachsam. Sie warten auf den offiziellen Bericht.
    • Später: Wenn der offizielle Bericht kommt und die Beweise klar sind (z. B. 95 % Sicherheit), ändert die KI ihren Status auf „Aussage" und sagt: „Jetzt habe ich den Beweis. Der Minister war korrupt."

Warum ist das wie Mathematik?

Der Autor nutzt die Mathematik von Brouwer, weil diese besagt: Eine mathematische Aussage ist nur dann wahr, wenn man sie konstruieren (nachbauen) kann. Man kann nicht einfach behaupten, etwas existiere, nur weil es theoretisch möglich ist. Man muss es zeigen.

Genau das will der Autor von der KI: Sie soll nichts behaupten, was sie nicht „nachbauen" und beweisen kann.

Das Problem: Es kostet Zeit und Rechenleistung

Natürlich ist das anstrengend. Es ist schneller, einfach zu raten. Um diese „Beweise" zu finden, muss die KI mehr rechnen und prüfen. Das kostet Zeit und Geld.
Der Autor sagt aber: In wichtigen Dingen (Wahlen, Medizin, Justiz) ist es besser, langsam und ehrlich zu sein, als schnell und falsch.

Die Metapher: Der Wachmann am Tor

Stellen Sie sich die KI als einen Wachmann am Tor einer Stadt vor.

  • Heute: Der Wachmann lässt jeden durch, der gut aussieht und laut „Ich bin ein Bürger!" ruft. (Die KI lässt jede flüssige, aber unbewiesene Aussage durch).
  • Mit der neuen Regel: Der Wachmann sagt: „Zeig mir deinen Ausweis!"
    • Hat der Besucher einen gültigen Ausweis (ein Zertifikat)? -> Rein! (Aussage).
    • Hat er einen Ausweis, der beweist, dass er kein Bürger ist? -> Raus! (Verneinung).
    • Hat er keinen Ausweis? -> Stopp! (Unentschieden). Er darf nicht rein, bis er Beweise hat.

Fazit: Eine Schule für Erwachsene

Das Ziel dieser Idee ist nicht, die KI dümmer zu machen, sondern sie verantwortlicher zu machen.
Es ist wie eine Schule für Erwachsene: Wir lernen, nicht jedem zu glauben, der laut redet. Wir lernen, nach Beweisen zu fragen.
Wenn die KI sagt „Ich weiß es nicht", ist das kein Fehler. Es ist ein Zeichen von Ehrlichkeit. Es gibt uns Menschen die Zeit und den Raum, selbst zu urteilen.

Wie der Autor am Ende sagt: Wir müssen die KI nicht nur bauen, sondern auch erziehen. Und wir müssen uns selbst erziehen, wieder selbst zu denken, statt nur auf die Antworten der Maschine zu warten.