Do LLMs Share Human-Like Biases? Causal Reasoning Under Prior Knowledge, Irrelevant Context, and Varying Compute Budgets

该研究通过对比 20 多个大语言模型与人类在 11 项因果判断任务中的表现,发现大多数模型展现出比人类更规则化的推理策略且缺乏典型的人类共因偏差,但在引入思维链(CoT)后其抗干扰能力有所提升,表明模型虽能弥补人类偏见却可能在处理内在不确定性时暴露出规则化推理的局限性。

Hanna M. Dettki, Charley M. Wu, Bob Rehder

发布于 2026-03-16
📖 1 分钟阅读☕ 轻松阅读

Each language version is independently generated for its own context, not a direct translation.

这篇论文就像是一场**“人类直觉 vs. AI 逻辑”的侦探大赛**。

想象一下,你正在玩一个**“找原因”的侦探游戏**。游戏里有一个简单的规则:两个独立的因素(比如“下雨”和“洒水器开了”)都会导致同一个结果(比如“草地湿了”)。

这篇论文研究了当人类和大型语言模型(LLM,也就是现在的 AI)面对这种侦探游戏时,它们是怎么思考的?它们会犯同样的错误吗?当游戏变得混乱或模糊时,它们还能保持理智吗?

以下是用大白话和生动的比喻对这篇论文的解读:

1. 核心实验:侦探游戏(Collider 结构)

研究人员设计了一个经典的逻辑陷阱,叫做**“对撞机结构”**。

  • 场景:草地湿了(结果 E)。
  • 原因:可能是下雨了(C1),也可能是洒水器开了(C2)。
  • 规则:下雨和开洒水器本来是互不相关的(独立事件)。
  • 陷阱:如果你发现草地湿了,而且你确定是下雨了,那么洒水器开着的概率就会降低(因为不需要洒水器也能解释草地湿了)。这在逻辑上叫“解释消除”(Explaining Away)。

人类通常怎么想?
人类侦探往往不完美。我们容易犯两个错:

  1. 解释消除太弱:即使知道下雨了,我们还是会觉得“也许洒水器也开了”,很难完全排除另一个原因。
  2. 乱关联(马尔可夫违规):我们会莫名其妙地觉得,如果下雨了,洒水器就“可能”也开了,仿佛这两个原因之间有某种神秘的联系,尽管它们本来没关系。

2. AI 的表现:像“死板”的优等生

研究人员测试了 20 多个不同的 AI 模型,发现它们的表现非常有趣:

  • AI 不像人类,它们更像“规则机器”
    人类会想:“虽然规则这么说,但现实中可能还有别的未知因素(比如有人泼水)。”所以人类会留有余地。
    但 AI 更像是一个严格遵守说明书的机器人。如果规则说“只有这两个原因”,AI 就只考虑这两个。它们很少像人类那样去猜测“没提到的背景因素”。

    • 比喻:人类是**“老练的侦探”,会怀疑“是不是还有第三个嫌疑人没被提到?”;AI 是“刚入职的实习生”**,只敢按手头的线索办事,不敢越雷池一步。
  • AI 没有人类的“老毛病”
    令人惊讶的是,虽然 AI 是在人类写的书上训练的,但它们并没有染上人类那种“乱猜”的毛病。

    • 在“解释消除”上,AI 做得比人类更彻底、更理性(一旦确定是下雨,就坚决认为洒水器没开)。
    • 在“乱关联”上,AI 严格遵守逻辑,不会因为下雨就瞎猜洒水器也开了。

3. 当游戏变难时:AI 会晕吗?

研究人员给 AI 出了两道难题,看看它们会不会“翻车”:

  1. 抽象化:把“下雨”、“洒水器”换成一堆乱码(比如"u8jzPde0Ig")。
  2. 信息过载:在题目里塞进一堆无关的废话(比如把天气故事和经济学故事混在一起)。

结果发现:

  • 有些 AI 会晕:当题目变得抽象或充满噪音时,很多 AI 的逻辑就乱了,开始胡言乱语。
  • 有些 AI 很稳:比如最新的 Gemini-2.5-pro,不管题目怎么变,它都能稳如泰山,像个**“超级冷静的外科医生”**,不受干扰。
  • 人类 vs. AI 的互补性:如果我们需要一个不受偏见干扰、严格按规则办事的助手,AI 很棒;但如果我们需要一个能在信息不全时灵活猜测的助手,人类可能更擅长。

4. 神奇的“思维链”(Chain-of-Thought)

研究人员发现了一个让 AI 变聪明的秘诀:让 AI 先“思考”再回答

  • 直接问:AI 可能直接蹦出一个数字,容易出错。
  • 让 AI 一步步推理(CoT):当要求 AI 写出“因为 A,所以 B,因此 C"的过程时,它的表现会大幅提升,变得更像人类,也更稳健,甚至能抵抗那些无关废话的干扰。
  • 比喻:这就像让一个**“直觉型选手”(直接回答)变成“深思熟虑的学者”**(一步步推导),后者显然更靠谱。

5. 总结:这对我们意味着什么?

  • AI 不是人类的克隆体:虽然 AI 读了人类写的书,但它们的“大脑”运作方式和我们不同。它们更像一个逻辑严密的计算器,而不是一个充满直觉和偏见的普通人
  • AI 的优缺点
    • 优点:在需要严格遵守规则、不受情绪和偏见影响的场景(比如法律初审、医疗数据筛查),AI 可能比人类更可靠。
    • 缺点:在现实世界中,情况往往很模糊,充满了“没提到的因素”。这时候,AI 那种“死板”的逻辑可能会失效,因为它不懂得像人类那样去“脑补”那些未知的可能性。
  • 未来的方向:我们需要了解 AI 到底是怎么思考的,才能安全地把它们用在关键领域。最好的模式可能是**“人类 + AI"搭档**:人类负责处理模糊和直觉,AI 负责处理逻辑和规则。

一句话总结:
这篇论文告诉我们,AI 在逻辑推理上是个**“死板但聪明”的优等生**,它不会像人类那样犯直觉错误,但也缺乏人类那种在混乱中灵活变通的“街头智慧”。要想用好它,得学会怎么引导它(比如让它多思考几步),并知道什么时候该让它上场,什么时候该自己来。

在收件箱中获取类似论文

根据您的兴趣定制的每日或每周摘要。Gist或技术摘要,使用您的语言。

试用 Digest →