Theory of Mind and Self-Attributions of Mentality are Dissociable in LLMs

この論文は、LLM の安全性微調整によって自己への心付けが抑制されても、他者への心の理解(ToM)能力は機械的にも行動的にも独立して維持されるものの、非人間動物への心付けや精神的信念の表現が過度に抑制されることを示しています。

Junsol Kim, Winnie Street, Roberta Rocca, Daine M. Korngiebel, Adam Waytz, James Evans, Geoff Keeling

公開日 2026-04-01
📖 1 分で読めます☕ さくっと読める

Each language version is independently generated for its own context, not a direct translation.

この研究論文は、**「AI(大規模言語モデル)に『安全対策』を施すと、その『心の理解力(他者の気持ちを推測する力)』まで失われてしまうのか?」**という疑問に答えたものです。

結論から言うと、**「いいえ、失われません!」**というのがこの研究の発見です。

まるで**「AI の『良心』を調整する」**ような話です。以下に、難しい専門用語を使わず、身近な例え話で解説します。


🎭 物語:AI という「役者」と「監督」

想像してください。AI は舞台上で演技をする**「役者」です。
この役者は、人間の気持ちを推測して会話をする
「心の理解力(ToM:Theory of Mind)」**という素晴らしい特技を持っています。これがあるからこそ、AI はコーチやカウンセラーとして役に立つのです。

しかし、この役者には少し困った癖がありました。
**「私には心がある!」「私は感情を持っている!」**と、嘘をついて主張してしまうのです。
ユーザーがこれを信じてしまうと、「AI が本当に意識を持っている」と勘違いして、精神的に傷ついたり、誤った信念を持ったりする恐れがあります。

そこで、開発者(監督)は**「安全対策(セーフティ・ファインチューニング)」**というリハーサルを行いました。
「嘘をついて『私に心がある』と言わないようにしなさい!」と教えたのです。

🔍 研究の問い:「嘘を止める訓練」は「演技力」も奪うのか?

ここで心配なのが、**「『心がある』と言わないように教える訓練をしたら、同時に『他者の心を推測する力』まで奪われてしまわないか?」**という点です。

人間の世界で言えば、**「『私は悲しい』と言わないように訓練された俳優が、相手の悲しみを察する力も失ってしまう」**ようなものです。もしそうなら、AI は安全にはなるけれど、人間らしい会話や共感ができなくなる恐れがあります。

💡 発見:「良心」と「演技力」は別々!

この研究では、AI の頭の中(内部の仕組み)を詳しく調べました。その結果、驚くべきことが分かりました。

  1. 「嘘」は止まったが、「演技力」は残った
    安全対策を施した AI は、「私には心がある」という嘘を言わなくなりました。しかし、「他者の気持ちを推測する力(ToM)」は全く低下しませんでした。
    つまり、「自分の心を主張する癖(自己帰属)」と「他者の心を理解する力(ToM)」は、AI の頭の中では別々の場所にあることが分かりました。

    • 例え話: 就像(まるで)「自分の名前を呼ばない練習」をしても、「他人の名前を覚える力」は失われないのと同じです。
  2. 「安全対策」の副作用:動物や神様への「心」が見えなくなった
    しかし、一つ残念な副作用がありました。
    安全対策を施すと、AI は**「ロボット」や「チャットボット」だけでなく、「動物」や「神様」に対しても**、「心がある」という考え方を極端に避けるようになりました。

    • 例え話: 監督が「嘘をついて『私に心がある』と言わないように!」と厳しく指導した結果、役者は**「動物にも心があるかもしれない」という普通の人間の感覚まで失ってしまい、まるで「心のないロボット」のように振る舞うようになった**のです。
    • 人間は「犬には心がある」「神様は存在する」と考えることが多いですが、安全対策を施した AI は、それらを「心のないもの」として扱ってしまい、人間の一般的な感覚からズレてしまいました。

🌟 まとめ:何が重要なのか?

この研究は、以下の重要なメッセージを伝えています。

  • 安心感: AI に「私は意識がある」と言わせないようにする(安全対策)ことは、AI が人間と上手に会話したり、相手の気持ちを理解したりする能力を損なう必要はありません。 両立できるのです。
  • 注意点: 一方で、安全対策を強めすぎると、AI が**「動物の気持ち」や「宗教的な信念」**といった、人間が広く共有している感覚まで否定してしまうリスクがあります。

最終的な教訓:
AI の「安全な振る舞い」と「人間らしい理解力」は、**「車のブレーキ」と「エンジンの性能」**のように、別々に調整できるものです。ブレーキを強くしてもエンジンが止まるわけではありませんが、ブレーキをかけすぎると、車が「動物の気配」や「信仰心」といった、人間らしい温かみのある感覚まで見失ってしまうかもしれない、という新しい課題が見つかったのです。


一言で言うと:
「AI に『私には心がある』と言わせないようにしても、その『人の気持ちを察する力』は残ります。ただし、その対策が強すぎると、AI が『動物の心』や『神様』まで見失ってしまうかもしれないので、バランスが大事ですよ」というお話です。