GPT-4o Lacks Core Features of Theory of Mind

尽管大语言模型在简单的心理理论任务中能模拟人类判断,但研究表明它们缺乏对心理状态与行为之间因果关系的连贯、一致且通用的建模能力,因此并未真正具备心理理论。

John Muchovej, Amanda Royka, Shane Lee, Julian Jara-Ettinger

发布于 2026-02-27
📖 1 分钟阅读☕ 轻松阅读

Each language version is independently generated for its own context, not a direct translation.

这篇文章主要探讨了一个非常有趣的问题:像 GPT-4o 这样的高级人工智能(大语言模型),真的拥有“读心术”(心理学上称为“心智理论”,Theory of Mind)吗?

简单来说,作者们认为:虽然 AI 看起来很像人,能猜出别人在想什么,但它其实并没有真正理解“想法”和“行为”之间的因果关系。它更像是一个擅长模仿的演员,而不是一个真正懂心理的导演。

为了让你更容易理解,我们可以把这篇文章的研究过程想象成三次“考试”,用来测试 AI 是否真的拥有“读心术”。

核心概念:什么是“读心术”?

在人类眼中,真正的“读心术”不仅仅是猜对答案,它必须像一个严密的逻辑系统,具备三个特点:

  1. 连贯性 (Coherence):你的推理要有一套完整的逻辑,不能自相矛盾。
  2. 抽象性 (Abstractness):这套逻辑要能举一反三,换个场景(比如从“拿水果”变成“看电影”)依然管用。
  3. 一致性 (Consistency):如果你能根据别人的行为猜出他的想法,那么反过来,用你猜出的想法,也应该能推导出那个行为。

第一次考试:连贯性测试(ContainerWorld)

场景设定
想象有一个叫“杰森”的角色,他面前有两个容器:一个近处的盒子(走路不累),一个远处的篮子(走路很累)。

  • 盒子里可能有苹果或橘子。
  • 篮子里可能有苹果或橘子。
  • 杰森心里有想法(他以为盒子里是什么,篮子里是什么)和欲望(他喜欢苹果还是橘子)。
  • 杰森会选择一个容器去打开。

测试过程
研究人员给 GPT-4o 出了很多种组合题(比如:杰森以为盒子里是橘子,但他其实喜欢苹果,而且盒子很近……他会选哪个?)。

结果
GPT-4o 答对了!它的表现和人类非常像。
比喻:这就像是一个背熟了剧本的演员。只要题目在“盒子 vs 篮子”这个范围内,它就能完美地演出台词,让你觉得它真的懂杰森的心思。


第二次考试:抽象性测试(MovieWorld)

场景设定
这次,研究人员把场景完全换了,但逻辑结构一模一样(1:1 映射)。

  • 盒子变成了5 分钟后上映的电影
  • 篮子变成了90 分钟后上映的电影
  • 走路累不累变成了等得久不久
  • 水果变成了电影类型(动作片、爱情片)。

测试过程
研究人员问 GPT-4o:如果杰森喜欢动作片,但他以为 5 分钟后放的是爱情片,90 分钟后放的是动作片,他会选哪个?

结果
GPT-4o 的表现变差了
虽然它在“盒子”场景里很完美,但到了“电影”场景,它的逻辑就乱了。它无法把“近处=容易”这个逻辑完美地迁移到“时间短=容易”上。
比喻:这就像那个演员,在演“拿盒子”的戏时是影帝,但一旦剧本改成“看电影”,他就开始忘词、乱演了。这说明他并没有掌握通用的“读心逻辑”,只是死记硬背了特定场景的套路。


第三次考试:一致性测试(双向验证)

场景设定
真正的“读心术”应该是双向的:

  1. 正向:我知道杰森喜欢苹果,他走了很远去篮子,所以我猜篮子里有苹果。
  2. 反向:我知道杰森去了篮子,而且他喜欢苹果,所以我猜他以为篮子里有苹果。

测试过程
研究人员让 GPT-4o 做两件事:

  1. 根据想法预测行为。
  2. 根据行为反推想法。
    然后检查这两者是否匹配。

结果
GPT-4o 失败了
它预测行为时的一套逻辑,和它反推想法时的逻辑,完全是两码事。就像是一个精神分裂的侦探

  • 当他猜“凶手会怎么做”时,他有一套逻辑。
  • 当他猜“凶手当时在想什么”时,他用了另一套完全不同的逻辑。
    这两套逻辑互不相通,无法形成一个闭环。

总结与启示

这篇文章的核心结论是:
目前的顶级 AI(如 GPT-4o)在社交任务上表现得很像人,但这并不是因为它真的拥有了“心智理论”(即理解心理状态如何导致行为的因果模型)。

  • 它更像是一个超级模仿者:它通过海量数据,学会了在特定场景下“看起来”像懂心理。
  • 它缺乏真正的理解:一旦场景稍微变化(抽象性测试),或者需要逻辑自洽(一致性测试),它的“伪装”就被拆穿了。

这对我们意味着什么?
如果我们认为 AI 真的“懂”人,我们可能会过度信任它在复杂、陌生社交场景下的判断。这篇文章提醒我们,AI 的“聪明”目前还停留在表面模仿,还没有进化出真正的、通用的心理推理能力。

就像那个演员,虽然能演好《拿盒子》,但如果你让他去演《看电影》或者让他即兴发挥,他可能就会露馅。在 AI 真正拥有“读心术”之前,我们在使用它们处理复杂的社交问题时,还是要保持一份清醒和谨慎。

在收件箱中获取类似论文

根据您的兴趣定制的每日或每周摘要。Gist或技术摘要,使用您的语言。

试用 Digest →