Do LLMs Share Human-Like Biases? Causal Reasoning Under Prior Knowledge, Irrelevant Context, and Varying Compute Budgets

Die Studie zeigt, dass sich große Sprachmodelle bei kausalen Schlussfolgerungen durch regelbasierte Strategien von menschlichen Urteilen unterscheiden, da sie typische menschliche Verzerrungen wie schwaches „Erklären-Weg" nicht aufweisen, wobei Chain-of-Thought-Prompts ihre Robustheit gegenüber irrelevanten Kontexten erhöhen können.

Hanna M. Dettki, Charley M. Wu, Bob Rehder

Veröffentlicht 2026-03-16
📖 5 Min. Lesezeit🧠 Tiefgang

Each language version is independently generated for its own context, not a direct translation.

Titel: Denken KI wie Menschen? Ein Blick hinter die Kulissen des logischen Schließens

Stellen Sie sich vor, Sie sind ein Detektiv. Jemand hat einen Mord begangen, und Sie haben zwei Verdächtige: Herrn A und Herrn B. Beide hatten ein Motiv und die Gelegenheit. Plötzlich finden Sie heraus, dass das Opfer tot ist (das „Ereignis").

Jetzt stellt sich die Frage: Wenn Sie wissen, dass Herr A es getan hat, wie wahrscheinlich ist es dann noch, dass Herr B es war?

Ein menschlicher Detektiv würde vielleicht denken: „Na ja, Herr A hat es getan, aber vielleicht war Herr B auch noch da, oder es gab einen dritten, unbekannten Täter." Menschen neigen dazu, an Dinge zu denken, die nicht explizit erwähnt wurden. Sie sind vorsichtig und lassen Raum für das Unbekannte.

Ein KI-Modell (ein Large Language Model) hingegen ist wie ein extrem pedantischer Jurist, der nur das liest, was auf dem Papier steht. Wenn der Text sagt: „Nur A oder B können es getan haben", dann schließt die KI sofort aus, dass C oder D involviert waren. Sie folgt den Regeln des Spiels buchstäblich, ohne an „Geister" oder unbekannte Faktoren zu glauben.

Genau das untersucht diese neue Studie von Hanna Dettki und Kollegen. Sie haben über 20 verschiedene KI-Modelle getestet, um herauszufinden: Denken KIs wie Menschen, oder sind sie ganz anders?

Hier ist die einfache Zusammenfassung der Ergebnisse:

1. Der Test: Das „Kollisions-Experiment"

Die Forscher nutzten ein klassisches Denk-Experiment, das sie „Kollisions-Struktur" nennen.

  • Die Situation: Zwei unabhängige Ursachen (z. B. Regen und eine Sprinkleranlage) führen zu einer gemeinsamen Wirkung (nasser Rasen).
  • Die Falle: Wenn Sie sehen, dass der Rasen nass ist, und Sie wissen, dass es geregnet hat, was sagt das über den Sprinkler aus?
    • Menschen machen hier oft Fehler. Sie denken manchmal: „Oh, es hat geregnet, also war der Sprinkler sicher aus." Aber sie vergessen manchmal, dass der Sprinkler trotzdem an sein könnte (sie ignorieren die Unabhängigkeit der Ursachen). Oder sie glauben nicht ganz fest daran, dass der eine Grund den anderen „erklärt" (sie „erklären weg" zu wenig).
    • Die KIs hingegen sind hier oft überraschend logisch. Sie folgen den mathematischen Regeln fast perfekt. Wenn es geregnet hat, reduzieren sie die Wahrscheinlichkeit für den Sprinkler stark. Sie machen die typischen menschlichen „Abkürzungen" (Biases) kaum.

Die Metapher: Menschen sind wie Künstler, die das Bild mit ihrer eigenen Erfahrung und Intuition füllen. KIs sind wie Architekten, die strikt nach dem Bauplan arbeiten.

2. Sind KIs schlauer oder nur stur?

Die Studie zeigt, dass KIs oft strengere Regelbefolger sind als Menschen.

  • Menschen denken: „Der Text sagt, A und B verursachen C. Aber im echten Leben gibt es vielleicht noch D, das wir nicht kennen." Sie nehmen unsichtbare Faktoren mit ins Kalkül.
  • KIs denken: „Der Text sagt, nur A und B verursachen C. Also gibt es kein D." Sie bleiben im „geschlossenen Raum" des Textes.

Das ist ein zweischneidiges Schwert:

  • Vorteil: KIs sind konsistent. Sie werden nicht müde, nicht abgelenkt und machen keine emotionalen Fehler.
  • Nachteil: In der echten Welt, wo Dinge oft unvorhersehbar sind und unbekannte Faktoren eine Rolle spielen, könnte diese Sturheit gefährlich sein. Eine KI, die nicht an „unbekannte Täter" glaubt, könnte in komplexen Situationen (wie Medizin oder Recht) falsche Schlüsse ziehen, weil sie zu sehr auf das Vertraute fixiert ist.

3. Der „CoT"-Trick (Gedankenketten)

Die Forscher haben die KIs auch aufgefordert, erst Schritt für Schritt zu „denken" (Chain-of-Thought), bevor sie antworten.

  • Ergebnis: Das half den KIs enorm! Wenn sie erst ihre Gedanken ordnen, werden sie noch robuster gegen Ablenkungen.
  • Analogie: Stellen Sie sich vor, Sie bekommen eine schwierige Matheaufgabe. Wenn Sie sie im Kopf lösen, machen Sie vielleicht Fehler. Wenn Sie aber erst die Schritte auf ein Blatt Papier schreiben, kommen Sie viel schneller und genauer zum Ziel. Genau das passiert bei den KIs mit „CoT".

4. Ablenkung und Unsinn

Die Forscher haben den KIs auch Unsinn in die Fragen gemischt (z. B. lange, irrelevante Texte oder abstrakte, sinnlose Begriffe statt „Regen" und „Sprinkler").

  • Ältere oder kleinere KIs ließen sich leicht verwirren. Ihre Antworten wurden chaotisch.
  • Neue, große KIs (wie das sehr fortschrittliche Gemini-2.5-Pro) blieben fast völlig unbeeindruckt. Sie waren wie ein Fels in der Brandung: Egal, ob die Frage in einer anderen Sprache oder mit Unsinn formuliert war, sie lösten das logische Problem trotzdem.

Das Fazit für den Alltag

Diese Studie sagt uns etwas Wichtiges über die Zukunft der KI:

  1. KIs sind keine perfekten Spiegelbilder von uns. Sie kopieren unsere Denkfehler nicht einfach nur. Sie haben ihre eigene, sehr regelbasierte Art zu denken.
  2. Das ist gut und schlecht. Wenn wir eine KI brauchen, die konsequent und fair ist (z. B. bei der Bewertung von Kreditanträgen), ist ihre Regelstrenge super. Aber wenn wir eine KI brauchen, die in einer chaotischen, unvorhersehbaren Welt (wie im Notfallmanagement) Entscheidungen trifft, müssen wir vorsichtig sein. Sie könnte zu stur sein, um „unbekannte Gefahren" zu erkennen.
  3. Wir müssen sie richtig anleiten. Durch das „Gedankenketten"-Verfahren (CoT) können wir die KI dazu bringen, robuster und zuverlässiger zu werden.

Zusammenfassend: KIs sind wie extrem disziplinierte Schüler, die die Regeln des Lehrbuchs perfekt beherrschen, aber manchmal vergessen, dass das Leben außerhalb des Lehrbuchs oft chaotischer ist als gedacht. Menschen sind dagegen wie erfahrene Abenteurer, die auch das Unbekannte mit einplanen – aber dafür manchmal zu voreilig urteilen. Die beste Lösung? Wir arbeiten zusammen, wobei die KI die Regeln prüft und der Mensch den Kontext im Auge behält.

Erhalten Sie solche Paper in Ihrem Posteingang

Personalisierte tägliche oder wöchentliche Digests passend zu Ihren Interessen. Gists oder technische Zusammenfassungen, in Ihrer Sprache.

Digest testen →