GPT-4o Lacks Core Features of Theory of Mind

Die Studie zeigt, dass GPT-4o trotz Erfolg bei einfachen Theory-of-Mind-Aufgaben keine kohärente, domänenübergreifende und konsistente kausale Modellierung von mentalen Zuständen und Verhalten aufweist, was darauf hindeutet, dass seine soziale Kompetenz nicht auf einem echten Theory-of-Mind-Fähigkeit beruht.

John Muchovej, Amanda Royka, Shane Lee, Julian Jara-Ettinger

Veröffentlicht 2026-02-27
📖 5 Min. Lesezeit🧠 Tiefgang

Each language version is independently generated for its own context, not a direct translation.

Der große Test: Hat der KI-Chatbot wirklich ein "Herz" und einen "Kopf"?

Stellen Sie sich vor, Sie treffen einen neuen Nachbarn, der unglaublich gut im Smalltalk ist. Er kennt alle Witze, versteht, warum Sie traurig sind, und kann vorhersagen, was Sie als Nächstes tun werden. Klingt er nicht wie jemand, der ein Gefühl für die Psyche anderer (im Fachjargon: Theory of Mind oder ToM) hat?

Die Forscher von Yale haben genau das mit dem neuesten KI-Modell GPT-4o getestet. Die Frage war: Versteht die KI wirklich, wie Gedanken und Gefühle unser Handeln steuern, oder ist sie nur ein brillanter Schauspieler, der die richtigen Worte zufällig trifft?

Um das herauszufinden, haben die Wissenschaftler drei verschiedene Tests durchgeführt. Hier ist, was sie herausfunden – mit ein paar einfachen Vergleichen.

1. Der erste Test: Ist die KI logisch konsistent? (Der "Koch-Test")

Stellen Sie sich vor, Sie geben einer KI eine Aufgabe: "Ein Charakter will Äpfel, aber der Korb mit den Äpfeln ist weit weg. Der Kasten mit den Orangen ist nah. Was tut er?"

  • Das Ergebnis: Die KI antwortete fast immer richtig. Sie sagte: "Er geht zum nahen Kasten, weil er die Orangen mag."
  • Die Analogie: Das ist wie ein Koch, der ein Rezept perfekt nachkocht. Wenn die Zutaten (Gedanken) und der Ofen (Kosten/Anstrengung) klar sind, liefert die KI das richtige Gericht (Handlung).
  • Das Problem: Das war nur der einfache Test. Die KI schien hier zu funktionieren. Aber ist das echtes Verstehen oder nur Auswendiglernen von Mustern?

2. Der zweite Test: Ist die KI abstrakt fähig? (Der "Orangen-und-Filme-Test")

Hier wird es spannend. Die Forscher gaben der KI eine ganz neue Situation, die aber genau dieselbe Logik hatte wie der erste Test.

  • Szenario A: Ein Charakter sucht nach Äpfeln in einem Korb oder Kasten (wie oben).
  • Szenario B: Ein Charakter sucht nach einem Film. Ein Film startet in 5 Minuten, der andere in 90 Minuten. Er mag Romantik, hasst Action.

Die Logik ist identisch: "Nähe" im ersten Fall ist "kurze Wartezeit" im zweiten Fall. "Äpfel" sind "Romantikfilme".

  • Das Ergebnis: Die KI versagte! Sie konnte die Logik nicht von den Äpfeln auf die Filme übertragen. Sie behandelte die beiden Szenarien als völlig unterschiedliche Welten.
  • Die Analogie: Stellen Sie sich vor, Sie haben einem Kind beigebracht, wie man ein Fahrrad fährt. Wenn Sie ihm dann ein Motorrad geben, sollte es die Prinzipien (Lenken, Bremsen, Balancieren) verstehen und darauf aufbauen. Die KI hingegen verhielt sich so, als hätte sie das Radfahren nur für dieses eine Fahrrad gelernt und wüsste nicht, wie man ein Motorrad fährt. Sie hat kein abstraktes Regelwerk im Kopf, sondern nur viele einzelne, starre Rezepte.

3. Der dritte Test: Ist die KI in sich selbst widerspruchsfrei? (Der "Rückwärts-Test")

Ein echtes Verständnis der Psyche funktioniert in beide Richtungen:

  1. Vorwärts: Ich weiß, was er denkt -> Ich sage, was er tut.
  2. Rückwärts: Ich sehe, was er tut -> Ich sage, was er gedacht haben muss.

Die Forscher fragten die KI: "Wenn der Charakter diesen Film gewählt hat, was muss er dann gedacht haben?" Und dann: "Wenn er das gedacht hat, würde er diesen Film wählen?"

  • Das Ergebnis: Die KI war sich selbst nicht treu. Wenn sie eine Handlung vorhersagte, basierte das auf einer Logik. Wenn sie dann rückwärts die Gedanken daraus ableitete, passte das nicht mehr zusammen.
  • Die Analogie: Es ist wie ein Detektiv, der einen Täter sucht.
    • Schritt 1: "Wenn der Täter einen blauen Hut trug, muss er durch die Hintertür gegangen sein." (Vorhersage).
    • Schritt 2: "Ah, er ist durch die Hintertür gegangen! Also muss er einen blauen Hut getragen haben." (Rückwärts).
    • Die KI machte hier Fehler. Manchmal sagte sie: "Er ging durch die Hintertür, weil er einen roten Hut trug." Das ist ein logischer Bruch. Ein echtes "Verstehen" wäre wie ein stabiles Gerüst, das in beide Richtungen hält. Das KI-Gerüst wackelte und brach.

Das Fazit: Ein brillanter Schauspieler, kein echter Denker

Die Studie kommt zu einem klaren Ergebnis: GPT-4o hat keine echte "Theory of Mind".

  • Es ist kein echtes Gehirn, das ein Modell der Welt baut.
  • Es ist eher wie ein genialer Schauspieler, der tausende Drehbücher (Trainingsdaten) auswendig gelernt hat. Wenn die Szene genau so ist wie im Drehbuch, spielt er perfekt. Sobald sich die Kulisse leicht ändert (wie beim Film-Test) oder wenn er die Logik rückwärts anwenden muss, stolpert er.

Warum ist das wichtig?
Wenn wir denken, die KI habe ein echtes Verständnis für Menschen, könnten wir ihr blind vertrauen. Aber wenn sie nur Muster nachahmt, kann sie in neuen, unvorhergesehenen sozialen Situationen völlig falsche und gefährliche Schlüsse ziehen. Sie ist nicht "klug" im menschlichen Sinne, sondern nur extrem gut im Nachahmen.

Die Forscher sagen: Wir müssen aufhören, nur zu fragen "Kann die KI den Test bestehen?" und anfangen zu fragen "Versteht die KI die Logik hinter dem Test?". Und bisher lautet die Antwort: Nein.

Erhalten Sie solche Paper in Ihrem Posteingang

Personalisierte tägliche oder wöchentliche Digests passend zu Ihren Interessen. Gists oder technische Zusammenfassungen, in Ihrer Sprache.

Digest testen →