Markovian Generation Chains in Large Language Models

该论文将大语言模型的迭代推理过程定义为马尔可夫生成链,并通过实验与建模分析揭示了温度参数和初始输入等因素如何决定文本在反复生成中是趋于收敛还是保持多样性,从而为理解多智能体 LLM 系统的动态演化提供了关键见解。

Mingmeng Geng, Amr Mohamed, Guokan Shang, Michalis Vazirgiannis, Thierry Poibeau

发布于 2026-03-13
📖 1 分钟阅读☕ 轻松阅读

Each language version is independently generated for its own context, not a direct translation.

这篇论文探讨了一个非常有趣且日益重要的问题:如果我们让大语言模型(LLM)不断地“自己翻译自己”或“自己改写自己”,会发生什么?

想象一下,你有一台神奇的复印机,它不仅能复印文件,还能在复印时自动把文字“润色”一下。如果你把复印出来的文件再放进去复印,再复印,再复印……经过几十次甚至上百次后,这张纸上的文字会变成什么样?

这篇论文就是在这个“无限循环复印”的实验中,发现了两个截然不同的结局。

1. 核心概念:语言的“传声筒”游戏

作者把这种过程称为**“马尔可夫生成链”。听起来很复杂,其实可以把它想象成“传声筒游戏”**:

  • 规则:第一个人说一句话,传给第二个人;第二个人听到后,用自己的话复述一遍,传给第三个人……以此类推。
  • 关键点:每个人只根据上一句来复述,不记得第一个人最初说了什么(没有“记忆”)。
  • 实验:在这个实验中,每个人都是同一个 AI 模型,而且复述的规则(提示词)完全一样。

2. 两种结局:死循环 vs. 无限流浪

论文发现,AI 在反复改写时,主要会走向两种命运,这取决于我们如何“指挥”它(即解码方式):

结局 A:贪心解码(Greedy Decoding)—— 陷入“死循环”

  • 比喻:想象一个极度谨慎的导游。每次他都要选“最安全、最标准”的那条路走。
  • 现象:如果你让 AI 用最保守的方式(贪心解码)不断改写,它很快就会迷路并原地打转
    • 比如,它可能从“我们开始写序言”变成“故事以序言开始”,再变回“我们开始写序言”,然后无限循环这两句话。
    • 结果:文字多样性迅速消失,变成了一潭死水,或者在几个相似的句子之间反复横跳。

结局 B:采样解码(Sampling-based Decoding)—— 开启“无限流浪”

  • 比喻:想象一个充满好奇心的探险家。每次他都会根据概率,偶尔走一条稍微有点新意的小路,而不是只走大路。
  • 现象:如果你让 AI 带一点随机性(比如设置温度参数),它就能一直产生新的句子
    • 它不会马上陷入死循环,而是能生成几十种不同的表达方式。
    • 结果:文字多样性很高,就像探险家一直在探索新大陆,很难找到回头路。

3. 为什么这很重要?(现实世界的启示)

这篇论文不仅仅是为了好玩,它揭示了未来 AI 世界的一个潜在风险:

  • “信息失真”的传声筒
    想象一个跨国会议,A 说中文,B 翻译成英文,C 再翻回中文,D 再翻成英文……如果这个过程重复很多次,哪怕每次翻译都力求“意思不变”,最终的意思也会面目全非

    • 论文发现,即使是“保留原意”的改写,经过几十轮后,句子也会变得面目全非,或者陷入毫无意义的重复。
  • 多智能体系统的隐患
    未来,我们可能会让多个 AI 互相协作(比如一个 AI 写新闻,另一个 AI 润色,第三个 AI 总结)。如果它们像“传声筒”一样不断传递信息,信息可能会在传递中“坍缩”或“扭曲”

    • 如果是保守的 AI 协作,大家可能会迅速达成一个僵化的共识(死循环)。
    • 如果是随机的 AI 协作,信息可能会变得过于发散,失去重点。

4. 总结:给普通人的启示

这就好比**“薛定谔的猫”,但这里是“薛定谔的句子”**:

  • 如果你给 AI 设定得太死板(贪心模式),它很快就会**“死机”**在几个句子里,失去创造力。
  • 如果你给 AI 一点自由度(采样模式),它就能**“活”**很久,不断产生新花样,但也可能跑偏。

这篇论文告诉我们:当我们把 AI 生成的内容再次喂给 AI 处理时,必须小心“传声筒效应”。如果不加控制,信息要么会枯竭(变得千篇一律),要么会失真(变得面目全非)。理解这种机制,能帮助我们更好地设计未来的 AI 系统,避免让它们在“自己和自己玩”的过程中把信息搞砸。