The Stepwise Informativeness Assumption: Why are Entropy Dynamics and Reasoning Correlated in LLMs?

本文提出了“逐步信息性假设”(SIA),从理论上解释了大语言模型内部熵动力学与外部推理正确性之间的相关性,并通过多模型和多基准的实证研究证实了该假设在训练诱导及推理过程中的有效性。

Mar Gonzàlez I Català, Haitz Sáez de Ocáriz Borde, George D. Montañez, Pietro Liò

发布于 2026-04-09
📖 1 分钟阅读☕ 轻松阅读

Each language version is independently generated for its own context, not a direct translation.

这篇论文探讨了一个非常有趣的问题:为什么大型语言模型(LLM)在“思考”时,它们内部的“困惑程度”(熵)的变化,能如此准确地预测它们最终给出的答案是对还是错?

想象一下,你正在看一个人解一道复杂的数学题。如果这个人一边写一边自言自语:“嗯……这一步好像有点不确定,让我再想想……哦!我想通了!现在我很确定答案是 42。”

你会发现,随着他思路的清晰,他的“不确定感”(困惑程度)在逐渐下降,最后当他写下答案时,他的内心已经非常笃定。

这篇论文的核心发现就是:那些能做出正确答案的模型,它们的“思考过程”就像这个解题者一样,是一个不断消除困惑、积累关键信息的过程。

下面我用几个简单的比喻来拆解这篇论文的核心内容:

1. 核心谜题:为什么“困惑度”能预测“对错”?

  • 现状:研究人员发现,当模型在生成答案时,如果它内部的“困惑度”(Entropy,可以理解为它对自己下一步该说什么有多不确定)随着思考步骤的增加而稳步下降,那么它最终给出正确答案的概率就很高。
  • 谜题:这很奇怪。模型的“困惑度”是它自己内部计算的(它觉得自己有多不确定),而“对错”是外部标准(答案是不是真的对)。理论上,这两者没有必然联系。模型完全可以很自信地胡说八道(低困惑度但答案错误),或者很困惑地蒙对答案。
  • 问题:为什么在现实中,这两者总是绑在一起?

2. 核心假设:步步为营的信息积累 (SIA)

作者提出了一个假设,叫**“步步为营的信息积累假设” (Stepwise Informativeness Assumption, SIA)**。

  • 比喻:寻宝游戏
    想象你在玩一个寻宝游戏,目标是找到藏在某处的宝藏(正确答案)。
    • 错误的思考:你在地图上乱走,每走一步都像是在瞎猜,虽然你也在移动,但你离宝藏并没有变近。你的“困惑度”可能忽高忽低,或者一直很低(因为你很自信地走错了路)。
    • 正确的思考 (SIA):每走一步,你都在收集线索。
      • 第一步:线索告诉你宝藏不在左边。
      • 第二步:线索告诉你宝藏不在山上。
      • 第三步:线索告诉你宝藏就在前面的树洞里。
    • 关键点:在正确的思考过程中,每一个步骤都在“排除错误选项”或“确认关键信息”。随着步骤增加,你离真相越来越近,你的“困惑度”自然就越来越低。

论文认为,只有当模型在思考的每一步都有效地积累了关于正确答案的信息时,它的“困惑度下降”才意味着它在走向正确答案。

3. 为什么训练能让模型学会这个?

这就好比教一个学生解题。

  • 预训练 (Pretraining):就像让学生读很多书。他学会了说话很流利,知道很多词怎么接,但他可能只是在“模仿”人类的说话方式,并不一定真的理解逻辑。这时候,他的“困惑度”和“对错”可能没有很好的关联。
  • 监督微调 (SFT):老师给他看标准的解题步骤(思维链),告诉他:“看,先这样想,再那样想,最后得出答案。”模型开始学习:“哦,原来正确的思考过程是每一步都要让答案变得更清晰。”
  • 强化学习 (RL):就像考试。做对了给奖励,做错了给惩罚。模型发现,只有那些能一步步降低困惑度、最终锁定正确答案的路径,才能拿到高分。

结论:经过这些训练,模型被“洗脑”了,它学会了**“为了得到正确答案,我的思考过程必须是一个不断消除不确定性的过程”**。这就是为什么我们能看到“困惑度下降”和“答案正确”高度相关的原因。

4. 怎么验证这个理论?

作者做了很多实验,就像侦探找证据一样:

  • 证据一:早期锁定 (Early Lock-in)
    正确的解题路径,往往在思考的早期就开始快速降低困惑度(就像侦探很快排除了大部分嫌疑人)。而错误的路径,往往在后期才突然“想通”(或者一直混乱)。
  • 证据二:平台期 (Saturation)
    当正确答案被完全确定后,困惑度会降到底部并保持平稳(就像你完全确定宝藏位置后,不再需要再找线索了)。如果困惑度降不下去,或者降到底后又反弹,那通常意味着模型在“胡扯”或“过度思考”。
  • 证据三:打乱顺序 (Ablation)
    如果把模型生成的思考步骤打乱顺序(比如把最后得出的结论放在第一步),那么“困惑度下降”和“答案正确”的关联就消失了。这证明了顺序很重要,必须是步步为营的积累。

5. 这篇论文有什么用?

理解了这一点,我们就能更好地利用大模型:

  1. 判断模型是否在“胡扯”:如果模型在思考过程中,困惑度没有下降,或者忽高忽低,我们可以提前知道它可能要答错了,甚至可以在它犯错前就停止生成(Early Stopping)。
  2. 优化训练:我们可以设计更好的训练方法,专门奖励那些“思考过程清晰、困惑度稳步下降”的模型,而不是只看最后答案对不对。
  3. 解释黑盒:以前我们不知道模型内部发生了什么,现在我们知道,“困惑度的下降”就是模型在“收集线索”的信号

总结

这篇论文告诉我们:大模型之所以能推理,是因为它们学会了像人类专家一样思考——每一步都在消除不确定性,一步步逼近真相。

  • 困惑度下降 = 收集到了有效线索
  • 困惑度不降或乱降 = 在瞎猜或走错路

这就解释了为什么观察模型“有多困惑”,就能知道它“有多聪明”。这就像看一个侦探破案:如果他每问一个问题都能排除一个错误方向,那离抓到真凶就不远了;如果他问来问去还是一头雾水,那大概率是抓错人了。

在收件箱中获取类似论文

根据您的兴趣定制的每日或每周摘要。Gist或技术摘要,使用您的语言。

试用 Digest →