The Long Delay to Arithmetic Generalization: When Learned Representations Outrun Behavior

该论文指出,在算法任务中出现的“顿悟”(grokking)现象并非源于模型未能习得结构,而是由于解码器难以利用编码器已快速习得的算术结构,且这种延迟受数字进制表示的归纳偏置显著影响。

Laura Gomezjurado Gonzalez

发布于 2026-04-16
📖 1 分钟阅读☕ 轻松阅读

Each language version is independently generated for its own context, not a direct translation.

这篇论文探讨了一个非常有趣的现象,叫做**“顿悟”(Grokking)**。在训练 AI 模型做数学题时,经常会出现一种奇怪的情况:模型在训练集上已经背得滚瓜烂熟,但在测试题上却表现得像白痴一样,过了很久(比如几万步训练后),突然有一天它“顿悟”了,准确率瞬间飙升。

这篇论文的核心发现是:这种“顿悟”前的漫长等待,并不是因为模型还没学会数学,而是因为它学会了却“张不开嘴”说出来。

为了让你更容易理解,我们可以用几个生动的比喻来拆解这篇论文:

1. 核心比喻:天才的“大脑”与笨拙的“嘴巴”

想象你在训练一个天才学生(编码器/Encoder)和一个笨拙的翻译官(解码器/Decoder)

  • 任务:让学生看一个数字,然后算出它的下一步(比如:如果是偶数就除以 2,如果是奇数就乘 3 加 1)。
  • 现象
    • 在训练的前几千步,天才学生其实已经完全掌握了其中的数学规律(比如奇偶性、余数规律)。如果你偷偷问他:“这个数是奇数还是偶数?”他能 99% 准确回答。
    • 但是,笨拙的翻译官完全不知道该怎么把学生脑子里的这些知识转化成最终的答案。所以,虽然学生懂了,但翻译官输出的答案全是错的。
    • 这就造成了一个**“阴影知识差距”**:模型内部已经懂了,但表面上看起来还是不懂。
    • 过了几万步后,翻译官终于“开窍”了,学会了怎么把学生的知识翻译出来,于是准确率突然暴涨,这就是“顿悟”。

结论:延迟不是因为“没学会”,而是因为“没法用”。

2. 实验验证:换人试试

为了证明是“翻译官”的问题,而不是“学生”的问题,作者做了一些像“器官移植”一样的实验:

  • 移植大脑(Encoder Transplant):把训练好的“天才学生”的大脑,装进一个全新的、还没受过训练的“笨拙翻译官”身体里。
    • 结果:奇迹发生了!新组合的模型2.75 倍速完成了顿悟。这说明只要大脑(编码器)是好的,嘴巴(解码器)很快就能学会怎么说话。
  • 移植嘴巴(Decoder Transplant):把训练好的“翻译官”装进一个全新的“学生”身体里。
    • 结果:完全没用,甚至表现更差。这说明光有会说话的嘴巴,没有懂数学的大脑,也是白搭。
  • 回滚嘴巴(Decoder Rewind):让“天才学生”保持不动,把“翻译官”的时间倒流回刚开始学的时候,只训练嘴巴。
    • 结果:那个漫长的“笨拙期”直接消失了!嘴巴立刻就能学会。这进一步证明,之前的等待纯粹是嘴巴在练手,大脑早就准备好了。

3. 关键变量:数字的“语言”(进制)

论文还发现,数字用什么样的“语言”写出来(进制),对翻译官的难易程度影响巨大

  • 比喻:这就好比你要翻译一段话。
    • 如果用二进制(Base 2):就像用摩斯密码写长篇小说,全是点和划。对于奇数变偶数这种复杂操作,翻译官完全找不到规律,最后彻底崩溃,甚至把之前背过的都忘光了(准确率归零)。
    • 如果用24 进制(Base 24):就像用一种非常符合逻辑的方言,数学规律在局部就能看出来。翻译官学得非常快,准确率接近 100%。
    • 原因:有些进制(如 24,既能被 2 整除也能被 3 整除)让数学运算变得“局部化”。翻译官只需要看最后几位数字就能猜出答案;而有些进制(如二进制)让进位变得极其复杂,翻译官必须看完全文才能算对,这太难了。

结论:数字的表示方式(进制)就像是一种“诱导偏见”,它决定了翻译官能不能利用局部的线索。选对了进制,学习就快;选错了,模型就会“死机”。

4. 为什么不能举一反三?(跨任务迁移)

作者还试着把在“柯拉茨猜想”任务上学到的大脑,拿去解决“最大公约数(GCD)”的问题。

  • 结果:完全不行。
  • 比喻:这就像让一个精通“微积分”的天才学生去学“钢琴”。虽然都是数学/逻辑相关,但微积分的解题思路(大脑里的结构)和弹钢琴的指法(任务特定的格式)太不一样了。这个学生的大脑是专门为“柯拉茨猜想”的特定格式训练的,换个题目就废了。

总结:这篇论文告诉我们要什么?

  1. 别急着放弃:如果你训练 AI 做数学题,发现它很久都没进步,别以为它学不会。它可能早就学会了,只是还没学会怎么“输出”。
  2. 瓶颈在输出端:在编码器 - 解码器模型中,真正的困难往往不在于“理解”,而在于“表达”。
  3. 格式很重要:怎么把问题呈现给 AI(比如用什么进制、怎么分词),直接决定了 AI 能不能学会。有时候换个简单的表示法,难题瞬间变简单。

一句话总结
AI 其实是个**“懂很多但嘴笨”**的学生。它早就学会了数学规律,但我们需要帮它找到合适的“说话方式”(解码器训练和进制选择),它才能把脑子里的知识展示出来。所谓的“顿悟”,其实就是那个笨拙的嘴巴终于练好了。

您所在领域的论文太多了?

获取与您研究关键词匹配的最新论文每日摘要——附技术摘要,使用您的语言。

试用 Digest →