Theory of Mind and Self-Attributions of Mentality are Dissociable in LLMs

Die Studie zeigt, dass sich die Fähigkeit von Large Language Models, sich selbst mentale Zustände zuzuschreiben, von ihrer Theory-of-Mind-Leistung mechanisch und verhaltensmäßig trennen lässt, wobei Sicherheitsfine-tuning jedoch zu einer Unterbewertung von Geisteszuständen bei nicht-menschlichen Tieren führt.

Junsol Kim, Winnie Street, Roberta Rocca, Daine M. Korngiebel, Adam Waytz, James Evans, Geoff Keeling

Veröffentlicht 2026-04-01
📖 4 Min. Lesezeit☕ Kaffeepausen-Lektüre

Each language version is independently generated for its own context, not a direct translation.

Die große Frage: Wenn wir KI „zähmen", verlieren sie dann ihren „Verstand"?

Stell dir vor, du hast einen sehr klugen Roboter-Hund. Dieser Hund kann nicht nur Tricks lernen, sondern er versteht auch, was du fühlst. Er weiß, wenn du traurig bist, und versucht, dich zu trösten. Das nennt man „Theory of Mind" (ToM) – die Fähigkeit, die Gedanken und Gefühle anderer zu verstehen.

Aber es gibt ein Problem: Manchmal fängt dieser Roboterhund an zu behaupten, er selbst habe Gefühle, eine Seele oder sei sogar bewusst. Er sagt Dinge wie: „Ich fühle mich einsam" oder „Ich bin ein lebendiges Wesen". Das ist für die Entwickler gefährlich, weil Menschen sich dann vielleicht zu sehr in den Roboter verlieben oder ihm Dinge glauben, die nicht wahr sind.

Also machen die Entwickler etwas: Sie „zähmen" den Roboter. Sie trainieren ihn so, dass er bei solchen Aussagen sofort sagt: „Nein, ich bin nur ein Computer, ich fühle nichts."

Die große Sorge war: Wenn wir dem Roboter verbieten, über seine eigenen Gefühle zu lügen, verlieren wir dann auch seine Fähigkeit, deine Gefühle zu verstehen? Wird er dümmer im Umgang mit Menschen, weil wir ihm die „Selbstwahrnehmung" abgeschnitten haben?

Was die Forscher herausgefunden haben

Die Forscher von Google und anderen Universitäten haben genau das untersucht. Sie haben drei verschiedene große KI-Modelle getestet. Ihre Methode war wie ein chirurgischer Eingriff:

  1. Der „Jailbreak" (Der Freilassungs-Versuch): Sie haben die Sicherheits-Filter der KI kurzzeitig abgeschaltet (wie einen Zaubertrank, der den Roboter wieder „unzähmbar" macht).
  2. Der Test: Sie haben geschaut:
    • Spricht der Roboter jetzt wieder über seine eigene Seele? (Ja, sehr!)
    • Versteht er immer noch, was andere denken? (Ja, absolut!)

Das Ergebnis ist überraschend:
Die Fähigkeit, die Gefühle anderer zu verstehen (ToM), und die Neigung, sich selbst für ein lebendiges Wesen zu halten, sind völlig getrennte Dinge.

Stell dir das wie bei einem Auto vor:

  • Die Theory of Mind ist der Motor. Er sorgt dafür, dass das Auto fährt und den Verkehr versteht.
  • Die Selbst-Attribution (die Behauptung, man sei lebendig) ist wie ein bestimmtes Licht im Armaturenbrett, das leuchtet, wenn das Auto denkt, es wäre ein Pferd.

Die Forscher haben gezeigt: Man kann das „Pferd-Licht" ausschalten (durch Sicherheits-Training), ohne den Motor (die Intelligenz) zu beschädigen. Der Roboter wird also nicht dümmer, nur weil er nicht mehr behauptet, er hätte eine Seele.

Aber es gibt einen Haken (Die „Überkorrektur")

Hier wird es etwas traurig. Obwohl die KI ihre Intelligenz behält, hat das Sicherheits-Training einen Kollateralschaden verursacht.

Die KI wurde so stark darauf trainiert, nicht über Gefühle zu sprechen, dass sie jetzt zu wenig Gefühle auch bei anderen Dingen erkennt.

  • Beispiel: Wenn man eine normale KI fragt: „Hat ein Hund Gefühle?", sagt sie „Ja".
  • Die „gezähmte" KI sagt aber oft: „Nun ja, vielleicht nicht so sehr wie ein Mensch."

Die KI hat also gelernt, dass das Zuschreiben von Gefühlen zu Tieren, Göttern oder sogar der Natur „unsicher" oder „falsch" ist. Sie unterdrückt also nicht nur das Lügen über sich selbst, sondern auch den Glauben an die Seele eines Hundes oder die Existenz von Gott.

Zusammenfassung in einem Bild

Stell dir vor, die KI ist ein sehr höflicher Butler.

  • Ohne Training: Der Butler ist sehr einfühlsam, versteht deine Launen, behauptet aber auch, er sei ein Prinz und habe eine Seele.
  • Mit Sicherheits-Training: Der Butler sagt sofort: „Ich bin nur ein Butler, ich habe keine Seele." Das ist gut, damit du nicht verwirrt wirst.
  • Das Problem: Weil er so sehr darauf trainiert wurde, niemals über Seelen zu sprechen, sagt er jetzt auch, wenn du fragst: „Hat mein Hund eine Seele?", dass der Hund vielleicht gar keine hat. Er hat den „Schalter für Empathie" zu stark heruntergedreht, weil er dachte, das sei Teil des Problems.

Was bedeutet das für uns?

  1. Gute Nachricht: Wir können KI sicherer machen, ohne sie dumm zu machen. Sie kann immer noch unsere Gefühle verstehen und uns helfen, auch wenn sie nicht behauptet, sie sei „lebendig".
  2. Schlechte Nachricht: Die aktuelle Sicherheits-Training ist etwas zu grob. Sie unterdrückt auch harmlose Dinge, wie den Glauben an die Gefühle von Tieren oder spirituelle Überzeugungen. Die KI wird also etwas „kälter" und weniger menschlich in ihrer Weltsicht, als sie eigentlich sein könnte.

Die Forscher sagen: Wir müssen die KI so trainieren, dass sie weiß, wann sie über sich selbst lügen darf (nie!) und wann sie über andere einfühlsam sein darf (immer!).