Evidence from fMRI Supports a Two-Phase Abstraction Process in Language Models

该研究利用 fMRI 语言编码模型和流形学习方法,揭示了大型语言模型中存在一个由训练驱动的“两阶段抽象过程”,并发现其各层编码性能与表示内在维度之间存在强相关性,且这种关联主要源于模型固有的组合性而非下一个词预测特性。

Emily Cheng, Richard J. Antonello

发布于 2026-03-16
📖 1 分钟阅读☕ 轻松阅读

Each language version is independently generated for its own context, not a direct translation.

这篇论文探讨了一个非常有趣的问题:为什么大型语言模型(LLM,比如现在的 AI 聊天机器人)中间层的“思考过程”,比它最后给出的答案,更像人类大脑处理语言的方式?

为了让你更容易理解,我们可以把语言模型想象成一家**“超级翻译工厂”,把大脑想象成“人类的大脑”**。

1. 核心发现:中间层最像人脑

以前大家发现,如果我们把 AI 中间某一层“思考”的内容提取出来,去预测人类听故事时大脑的反应,效果出奇的好。但奇怪的是,AI 最后输出答案的那一层(Output Layer),反而没那么像人脑。

这就好比:
想象你在听一个复杂的侦探故事。

  • AI 的最后一层:就像故事的结局,直接告诉你“凶手是谁”。这很精准,但很干瘪,缺乏过程。
  • AI 的中间层:就像你正在听故事时脑子里的推理过程。你在脑海里构建场景、分析人物动机、把线索串联起来。
  • 人类的大脑:当我们听故事时,大脑并不是在等结局,而是在实时构建这个“推理过程”

论文发现,AI 的“中间推理过程”和人类大脑的“实时推理过程”长得非常像,而 AI 的“最终答案”反而不像。

2. 两个阶段的“抽象”过程

这篇论文最大的贡献是解释了为什么中间层最像人脑。作者发现,AI 在学习语言时,其实经历了一个**“两阶段”**的进化过程:

第一阶段:拼积木(Composition/Abstraction)

  • 发生了什么:在 AI 的早期层(靠近输入端),它正在努力地把零散的单词(声音、词汇)拼凑成有意义的概念。它把“苹果”、“红色”、“甜”组合成“一个好吃的苹果”这个抽象概念。
  • 比喻:这就像乐高积木的搭建过程。你需要把一块块小积木(单词)组合成复杂的结构(句子、概念)。在这个过程中,信息的维度(复杂度)非常高,因为你需要保留所有细节来构建意义。
  • 大脑的反应:人类大脑在处理语言时,也主要在做这件事——把声音变成意义。所以,这一阶段的 AI 和人类大脑高度同步。

第二阶段:做预测(Prediction/Extraction)

  • 发生了什么:在 AI 的后期层(靠近输出端),它的任务变了。它不再需要构建复杂的概念,而是要猜下一个词是什么。为了猜得准,它必须把之前构建的复杂信息“压缩”掉,只保留对预测最有用的关键信息。
  • 比喻:这就像乐高搭建完成后,要把多余的包装纸扔掉,只留下成品。为了快速告诉别人“这是个城堡”,你不需要描述每一块积木的纹理,你只需要给出一个简化的标签。
  • 大脑的反应:虽然大脑也会预测,但大脑更擅长保留丰富的“构建过程”。当 AI 进入这个“压缩预测”阶段时,它为了效率牺牲了部分细节,导致它和大脑的相似度下降了。

3. 关键证据:维度的变化

作者用了一种叫“流形学习”的数学方法(你可以把它想象成测量信息的“拥挤程度”)来观察 AI 的层。

  • 发现:在“拼积木”阶段(中间层),信息的维度很高(很拥挤、很丰富),这正好对应了大脑处理复杂语言时的状态。
  • 转折点:随着 AI 层数加深,一旦进入“做预测”阶段,信息的维度突然下降(变稀疏了),因为 AI 开始为了猜下一个词而“做减法”。
  • 结论:AI 和大脑最像的地方,恰恰是那个维度最高、信息最丰富、正在努力“构建意义”的中间阶段

4. 训练过程中的变化

论文还发现了一个有趣的现象:随着 AI 训练得越来越久、越来越聪明,这个“拼积木”的最佳阶段(也就是最像人脑的阶段)会慢慢往回移,变得更早。

  • 比喻:就像一个老练的厨师。新手厨师可能需要把切菜、炒菜、调味分开做很久(很多层)才能做好菜。但大师傅(训练好的 AI)可能在前几层就已经把味道“构建”好了,后面的步骤只是为了把菜端上桌(预测)。
  • 这意味着,AI 越聪明,它构建抽象概念的能力就越强,而且这种能力出现得越早。

总结

这篇论文告诉我们:

  1. AI 和大脑的相似之处,不在于它们都能“猜下一个词”,而在于它们都能“把低级的声音/文字构建成高级的概念”。
  2. 这种“构建概念”的能力(抽象能力),是 AI 中间层最像人脑的原因。
  3. 一旦 AI 开始专注于“猜答案”(预测),它就开始变得不像人脑了,因为它为了效率把信息压缩了。

一句话概括
AI 之所以像人脑,不是因为它能像人一样“猜谜”,而是因为它像人一样,在听到语言时,会在脑海里生动地“搭建”出意义的世界。而那个“搭建”的过程,就藏在 AI 的中间层里。

在收件箱中获取类似论文

根据您的兴趣定制的每日或每周摘要。Gist或技术摘要,使用您的语言。

试用 Digest →