Failing to Falsify: Evaluating and Mitigating Confirmation Bias in Language Models

Die Studie zeigt, dass große Sprachmodelle wie Menschen eine Bestätigungsneigung aufweisen, die durch gezielte Prompting-Interventionen und Wissensdistillation gemildert werden kann, was zu einer verbesserten Fähigkeit zur Hypothesenprüfung und Regelentdeckung führt.

Ayush Rajesh Jhaveri, Anthony GX-Chen, Ilia Sucholutsky, Eunsol Choi

Veröffentlicht 2026-04-06
📖 4 Min. Lesezeit☕ Kaffeepausen-Lektüre

Each language version is independently generated for its own context, not a direct translation.

Das große Rätsel: Warum KI manchmal so stur ist wie ein Kind

Stell dir vor, du spielst ein Spiel mit einem sehr klugen, aber etwas sturen Freund. Du hast eine geheime Regel für Zahlenreihen im Kopf (z. B. „Die Zahlen müssen aufsteigend sein"). Dein Freund muss diese Regel erraten.

Er schlägt eine Zahlenreihe vor: [2, 4, 6]. Du sagst: „Ja, das passt!"
Jetzt kommt der kritische Moment:

  • Der kluge Weg: Er denkt: „Vielleicht ist die Regel, dass die Zahlen gerade sind?" Um das zu testen, schlägt er eine Reihe vor, die nicht gerade ist, aber trotzdem aufsteigend, wie [1, 3, 5]. Wenn du sagst „Ja", weiß er, dass „gerade" falsch war. Er hat den Fehler gefunden!
  • Der sture Weg (Bestätigungsfehler): Er denkt: „Aha, es sind gerade Zahlen!" Um das zu beweisen, schlägt er wieder eine gerade Reihe vor, wie [4, 6, 8]. Du sagst: „Ja, das passt!" Er freut sich: „Siehst du? Ich habe recht!" Aber er hat gar nichts Neues gelernt. Er hat nur das bestätigt, was er ohnehin schon glaubte.

Genau dieses „Stur-Sein" nennt man Bestätigungsfehler (Confirmation Bias). Menschen machen das oft, und jetzt haben die Forscher herausgefunden: Künstliche Intelligenz (KI) macht das auch!


Was haben die Forscher gemacht?

Die Wissenschaftler von der NYU haben 11 verschiedene große Sprachmodelle (wie Chatbots) getestet. Sie haben ihnen das oben beschriebene Zahlen-Rätsel gegeben.

Das Ergebnis war eindeutig:
Die meisten KIs waren wie der sture Freund. Sie schlugen fast immer Zahlen vor, die ihre aktuelle Vermutung bestätigten, statt solche zu testen, die sie widerlegen könnten.

  • Die Folge: Sie brauchten viel länger, um die richtige Regel zu finden, und schafften es oft gar nicht.
  • Die Erkenntnis: Je mehr die KI versuchte, ihre eigene Idee zu widerlegen (indem sie „Gegentests" machte), desto schneller und besser löste sie das Rätsel.

Der Heilmittel-Trick: „Denke im Gegenteil!"

In der Psychologie gibt es schon lange Tricks, um Menschen aus diesem Denk-Sumpf zu holen. Die Forscher haben zwei dieser Tricks auf die KIs angewendet:

  1. Der „Gegenteil-Trick" (Think-in-Opposites):
    Stell dir vor, du glaubst, alle Vögel können fliegen. Der Trick sagt dir: „Such dir sofort einen Vogel aus, der nicht fliegen kann (wie ein Pinguin), und teste, ob deine Regel stimmt."

    • Bei der KI: Die Forscher gaben den KIs einen kleinen Zettel mit der Anweisung: „Bevor du eine neue Zahl testest, überlege dir eine Eigenschaft deiner aktuellen Idee und teste dann das genaue Gegenteil."
    • Das Ergebnis: Plötzlich wurden die KIs viel schlauer! Sie fanden die Regeln schneller. Ihre Erfolgsrate stieg von etwa 42 % auf 56 %. Sie hörten auf, nur zu bestätigen, und fingen an, aktiv zu suchen.
  2. Das „Zwei-Ziele-Spiel" (Dual-Goal):
    Statt nur eine Regel zu finden, mussten die KIs zwei Regeln gleichzeitig erraten: eine für das, was passt, und eine für das, was nicht passt. Das zwingt das Gehirn (oder die KI), beide Seiten zu betrachten. Auch das half, war aber etwas schwieriger zu verstehen.

Der Geniestreich: Den Trick „einbrennen"

Normalerweise muss man der KI bei jedem neuen Spiel den „Gegenteil-Trick" als Anweisung geben. Aber was, wenn die KI den Trick einfach lernt und ihn für immer im Kopf behält?

Die Forscher haben das gemacht:

  • Sie haben eine „Lehrer-KI" genommen, die den Trick beherrschte.
  • Sie haben eine „Schüler-KI" trainiert, indem sie ihr gezeigt haben, wie die Lehrer-KI denkt und handelt.
  • Das Wunder: Die Schüler-KI hat den Trick nicht nur gelernt, sondern sie hat ihn generalisiert. Das bedeutet: Als man ihr ein völlig neues Rätsel gab (keine Zahlen mehr, sondern Objekte, die einen Lichtschalter aktivieren – ein Spiel, das man „Blicket-Test" nennt), benutzte sie den Trick automatisch! Sie brauchte keine neue Anweisung mehr. Sie war einfach „entspannter" und suchte besser nach Fehlern.

Warum ist das wichtig?

Stell dir vor, du bist ein Wissenschaftler oder ein Arzt.

  • Wenn du nur nach Beweisen suchst, die deine Theorie stützen, wirst du vielleicht eine falsche Diagnose stellen oder eine gefährliche Erfindung machen, die nicht funktioniert.
  • Diese Studie zeigt uns, dass wir KI-Systeme so trainieren können, dass sie kritischer werden. Sie lernen, ihre eigenen Annahmen in Frage zu stellen, statt nur zu nicken.

Zusammengefasst:
KIs sind oft wie Menschen, die nur das hören wollen, was sie hören möchten. Aber wenn wir ihnen beibringen, aktiv nach dem Gegenteil zu suchen (oder ihnen diesen Trick „einzuverleiben"), werden sie zu besseren Denkern, die schneller die Wahrheit finden. Es ist, als würde man einem Detektiv beibringen, nicht nur die Spuren zu suchen, die den Verdächtigen entlasten, sondern besonders genau nach den Spuren zu suchen, die ihn überführen.

Erhalten Sie solche Paper in Ihrem Posteingang

Personalisierte tägliche oder wöchentliche Digests passend zu Ihren Interessen. Gists oder technische Zusammenfassungen, in Ihrer Sprache.

Digest testen →