Each language version is independently generated for its own context, not a direct translation.
这篇文章就像是在做一场**“大脑与 AI 的创意联姻”**。研究人员想搞清楚:当人工智能(大语言模型)像人类一样进行“头脑风暴”时,它的“思考方式”是不是真的像我们的大脑?
为了把这项研究讲得通俗易懂,我们可以把整个过程想象成**“寻找最像人类大脑的 AI 厨师”**。
1. 核心任务:创意大比拼(发散性思维)
想象一下,你面前有一个普通的**“回形针”**。
- 普通人的任务:除了夹纸,还能用它做什么?(比如:当耳环、当鱼钩、当玩具、当钥匙扣……)这叫**“发散性思维”**,是创意的核心。
- AI 的任务:让 AI 也来想回形针的用法。
以前,科学家只研究 AI 在“被动阅读”文章时,大脑是怎么反应的。但这次,他们想看看 AI 在主动搞创意时,大脑和 AI 的“脑电波”能不能对上号。
2. 实验方法:给大脑和 AI 拍“思维 X 光片”
研究人员找了 170 个志愿者,让他们对着各种物品(比如风筝、回形针)进行创意联想,同时用fMRI(功能性磁共振成像)给他们的大脑拍片子。这就像给大脑的“创意工厂”拍 X 光,看看哪些区域在发光。
同时,他们让各种大小不同的AI 模型(从很小的模型到巨大的模型)也做同样的题目,并记录 AI 内部“神经元”(也就是数据层)的活动。
关键工具:RSA(相似度分析)
这就好比拿两张“思维地图”来比对:
- 一张是人类大脑画出的“创意地图”。
- 一张是 AI 画出的“创意地图”。
如果两张地图的纹路越像,说明 AI 的“思考方式”越像人类。
3. 主要发现:三个有趣的“真相”
真相一:个头越大,越像人(但在“想”的时候)
研究发现,AI 模型越大(参数量越多),它在看到题目(Prompt)的那一刻,大脑活动越像人类。
- 比喻:就像是一个刚进厨房的小学徒(小模型)和一个拥有百年经验的大厨(大模型)。当老板把“回形针”扔给他们时,大厨脑子里瞬间闪过的创意火花,和人类大厨的脑电波更同步。
- 但是:一旦开始真正写答案(生成回复),这种同步性就变弱了。就像大厨开始动笔写菜单时,可能因为太熟练反而变得套路化,不再像人类那样充满即兴的火花。
真相二:越深层的“思考”,越像人
AI 有很多层“大脑皮层”。研究发现,AI 越靠后的层(深层),越能模拟人类的高级创意活动。
- 比喻:AI 的前几层像是在认字、查字典(“回形针是金属做的”);而深层则像是在搞艺术创作(“回形针可以变成一只鸟”)。只有到了深层,AI 的“脑回路”才真正和人类的创意中心(默认模式网络)同频共振。
真相三:怎么“教”AI,决定了它像不像人(最精彩的部分!)
这是文章最颠覆的地方。研究人员给同一个基础 AI(Llama-3.1-8B)用了三种不同的“特训”,结果大不相同:
创意特训(Creativity-Optimized):
- 做法:专门训练它多出新意、多搞怪。
- 结果:它变得非常像人类。当人类产生“绝妙创意”时,它的脑电波也跟着激动;当人类产生“无聊想法”时,它反而不跟了。它学会了**“只跟高创意的人类同步”**。
- 比喻:就像给 AI 请了一位艺术导师,它现在只跟天才艺术家同频。
人类行为模仿特训(Human Behavior Fine-tuned):
- 做法:训练它模仿普通人的说话和做事习惯。
- 结果:它跟所有人类(不管是高创意还是低创意)都同步了。
- 比喻:它变成了一个“大众脸”,谁说话它都跟着学,像个随和的模仿者。
逻辑推理特训(Reasoning/Chain-of-Thought):
- 做法:这是目前最火的训练法,教 AI 一步步逻辑推理(比如做数学题、写代码)。
- 结果:大反转! 它跟“高创意”的人类脑电波完全相反(负相关),反而跟“低创意、死板”的想法同步了。
- 比喻:这就像给一个艺术家强行灌输了“数学公式”。一旦开始搞逻辑推理,它的思维就变直了,再也想不出天马行空的创意了。它的“脑回路”从“创意花园”被强行拉到了“逻辑工厂”。
4. 总结与启示
这篇文章告诉我们一个深刻的道理:
AI 并不总是越“聪明”(逻辑越强)就越像人类。
- 如果你想要 AI 像人类一样搞发明、搞艺术、想点子,你就不能只教它做数学题或写代码(逻辑推理训练),因为那会让它失去“发散思维”的能力,变得死板。
- 如果你希望 AI 真正理解人类的创造力,你需要专门针对“创意”进行训练,并且要明白,AI 在思考的初期(看到题目时)最像人,一旦开始输出答案,它可能会因为追求标准答案而偏离人类的创意轨道。
一句话总结:
要想让 AI 拥有“人类灵魂”般的创造力,不能只把它训练成解题机器,而要把它训练成一个敢于胡思乱想的艺术家。否则,它越“聪明”,离人类的创意灵魂就越远。
Each language version is independently generated for its own context, not a direct translation.
这是一份关于论文《Large Language Models Align with the Human Brain during Creative Thinking》(大语言模型在创造性思维过程中与人类大脑对齐)的详细技术总结。
1. 研究背景与问题 (Problem)
- 背景:创造性思维是人类认知的核心,其中发散性思维(Divergent Thinking)——即从单一出发点生成新颖、多样化想法的能力——被视为其核心引擎。大型语言模型(LLM)在发散性思维任务(如替代用途测试 AUT)上已展现出接近甚至超越人类的性能。
- 现有局限:
- 既往的“大脑-LLM 对齐”研究主要集中在被动语言处理任务(如阅读或听自然文本),而非主动的创造性生成任务。
- 虽然已知高性能模型在语言任务上与人类大脑活动更对齐,但更具创造性的 LLM 是否在神经表征层面与人类创造性思维的大脑网络(如默认模式网络 DMN 和额顶网络 FPN),目前尚不清楚。
- 核心问题:在主动的创造性思维任务中,LLM 的内部表征是否与人类大脑的神经几何结构(Neural Geometry)存在对齐?这种对齐如何受模型规模、任务表现及后训练目标(Post-training objectives)的影响?
2. 方法论 (Methodology)
- 数据来源:
- 人类脑数据:使用 Beaty et al. (2018) 的 fMRI 数据集,包含 170 名健康受试者。
- 任务设计:
- 创造性任务:替代用途测试(AUT),要求受试者思考物体的创造性用途。
- 控制任务:物体特征任务(OCT),要求受试者思考物体的物理特征(非创造性)。
- 脑网络选择:重点关注与创造性认知相关的默认模式网络(DMN)和额顶网络(FPN),并选取体感运动网络(Somatomotor Network)作为对照。
- 模型数据:
- 模型范围:测试了不同规模的开源指令遵循模型(从 270M 到 72B 参数),包括 Gemma-3, Llama-3.1/3.2, Qwen2.5, DeepSeek-R1 等。
- 特定变体:针对 Llama-3.1-8B 的不同后训练变体进行对比:
- 基线模型 (Base)
- 创造性优化模型 (CrPO-llama-3.1-8b-instruct-cre)
- 人类行为模拟模型 (Llama-3.1-Minitaur-8B)
- 推理链训练模型 (DeepSeek-R1-Distill-Llama-8B)
- 表征提取:在两个阶段提取模型表征:(1) 提示阶段(Prompt,仅输入);(2) 生成阶段(Response,输入 + 输出)。
- 对齐分析:
- 使用表征相似性分析(RSA)计算 LLM 表征矩阵与 fMRI 脑响应矩阵之间的几何相似性。
- 对每个受试者计算对齐度,并除以噪声上限(Noise Ceiling)进行归一化。
- 选取每个模型中表现最佳的层(Best Layer)作为该模型的整体对齐得分。
3. 主要贡献 (Key Contributions)
- 首创性研究:首次系统性地研究了主动创造性思维任务(AUT)中的大脑-LLM 对齐,将现有文献从被动语言处理扩展到了高阶认知领域。
- 阶段依赖性发现:揭示了大脑对齐具有显著的阶段依赖性。模型属性(规模、性能)与大脑的对齐关系在“提示阶段”最强,但在“生成阶段”减弱。
- 后训练目标的选择性重塑:证明了不同的后训练目标会以功能选择性的方式重塑模型表征:
- 创造性优化:增强与高创造性神经响应的对齐,减弱与低创造性响应的对齐。
- 推理链训练:导致与高创造性响应的对齐度下降(甚至负相关),转向低创造性/分析性处理模式。
4. 关键结果 (Results)
- 模型规模与任务表现的对齐效应:
- 在提示阶段(Prompt Activations),大脑-LLM 对齐度与模型规模(r=0.58)和AUT 任务得分(r=0.51)呈显著正相关。
- 这种相关性在生成阶段(Response Activations)减弱,表明随着模型生成内容,其表征动态开始偏离人类创造性思维。
- 该效应在 DMN 和 FPN 中显著,但在非创造性任务(OCT)和非创造性脑网络(体感运动网络)中未观察到,证明了结果的特异性。
- 层深度的影响:
- 深层网络(Higher Layers)与创造性大脑响应的对齐度显著高于浅层(r=0.54)。这表明创造性思维主要由模型的高级抽象表征所模拟,而非底层的句法/词汇处理。
- 后训练目标的差异化影响(基于 Llama-3.1-8B 变体):
- 创造性优化模型 (CrPO):在生成阶段,保持了与高创造性神经响应的对齐,但显著降低了与低创造性响应的对齐。这符合其训练目标。
- **人类行为模拟模型 **(Minitaur):在生成阶段,同时提升了与高、低创造性响应的对齐,反映了其对人类响应模式的广泛模仿。
- 推理链训练模型 (DeepSeek-R1 Distill):表现出截然相反的模式——与高创造性响应呈负对齐,与低创造性响应呈正对齐。这表明思维链(Chain-of-Thought)训练将模型表征从创造性神经几何结构“推”向了分析性/收敛性处理模式。
5. 意义与启示 (Significance)
- 理论意义:
- 证实了 LLM 的表征几何结构在特定条件下(如提示阶段、特定训练目标下)可以映射人类创造性思维的神经基础。
- 揭示了当前 LLM 在生成阶段与人类创造性认知的“解耦”现象,暗示单纯扩大规模无法完全解决生成过程中的神经不匹配问题。
- 实践与未来方向:
- 训练目标的权衡:目前的后训练(如强化学习、思维链)多侧重于收敛性思维(如数学、代码),这可能会损害模型的发散性思维能力(即创造性)。
- 评估新范式:大脑对齐(Brain Alignment)提供了一个超越行为基准(Behavioral Benchmarks)的新视角,能够更深层地评估模型是否真正模拟了人类创造性认知的计算原理。
- 模型开发建议:若要开发具备真正创造力的 AI,需要在后训练阶段引入针对发散性思维优化的目标,避免过度偏向分析性推理训练。
总结:该论文通过结合 fMRI 和多种 LLM,深入探讨了创造性思维中的神经 - 计算对齐机制。研究发现,虽然大模型在初期处理上能模拟人类创造性大脑,但其生成过程及特定的后训练策略(特别是推理训练)可能会显著改变这种对齐,甚至抑制创造性表征。这为未来构建具有人类级创造力的 AI 模型提供了关键的神经科学依据。