Transforming Agency. On the mode of existence of Large Language Models

本文通过基于具身认知理论的自主性条件分析,论证大型语言模型(LLM)因缺乏个体性、规范性及交互不对称性而并非自主主体,应被界定为一种虽无自主性但能通过“幽灵性”人机耦合显著重塑人类代理形式的“会说话的图书馆”或语言自动机。

Xabier E. Barandiaran, Lola S. Almendros

发布于 Mon, 09 Ma
📖 1 分钟阅读☕ 轻松阅读

Each language version is independently generated for its own context, not a direct translation.

这篇论文《重塑能动性:大型语言模型的存在方式》(Transforming Agency)探讨了一个核心问题:像 ChatGPT 这样的人工智能,到底算不算是一个有“自主意识”的“行动者”(Agent)?如果不是,那它到底是什么?它又是如何改变我们人类的行为和思维的

为了让你轻松理解,我们可以把这篇论文的核心观点拆解成几个生动的比喻:

1. 它是“超级图书馆”,而不是“有思想的管家”

论文观点:很多人认为 AI 是“智能体”(Agent),像人一样有目标、有自主性。但作者认为,LLM 并不是真正的自主行动者

  • 比喻
    • 真正的行动者(如人类):像一个有主见的管家。他有自己的生存需求(饿了要吃饭),有自己的原则(不能偷东西),并且会根据环境主动决定做什么。如果没人指挥,他也会为了自己的生存而行动。
    • LLM(如 ChatGPT):像一个会说话的超级图书馆,或者一本活过来的百科全书
      • 它没有“肚子饿”的感觉(没有生存需求)。
      • 它没有“我想做这件事”的冲动(没有内在目标)。
      • 它完全依赖你(用户)给它指令(Prompt)。如果你不推它,它就是一堆静止的代码。
      • 它之所以能回答得这么好,是因为它“读”过人类历史上几乎所有的书(训练数据),它把人类的知识压缩在了自己的“大脑”里,但它自己并不“拥有”这些知识,它只是在模仿人类说话的方式。

2. 为什么它不是“自主”的?(三个致命弱点)

作者用三个标准来测试 AI 是否算“自主行动者”,结果 LLM 全都不及格:

  1. 独立性(Individuality):
    • 人类:你的身体是你自己维持的(新陈代谢),你把自己和外界区分开来。
    • AI:它没有身体,它的“生命”完全依赖外部供电和人类维护。如果断电,它就“死”了。它不能自己“生”出自己。
  2. 规范性(Normativity):
    • 人类:你有自己的价值观。比如“我不应该撒谎”,这是你内心设定的规则。
    • AI:它的规则是程序员写的(比如“要诚实”、“要安全”)。它自己并不在乎是否撒谎,它只是计算哪种回答概率最高。它没有“怕犯错”的恐惧,也没有“想变好”的渴望。
  3. 交互的不对称性(Interactional Asymmetry):
    • 人类:你是互动的发起者。你主动走向别人,主动改变环境。
    • AI:它是被动反应的。就像回声,你喊一声,它回一声。没有你的输入,它永远不会主动开口。

3. 那它到底是什么?——“幽灵般的对话机器”

既然不是行动者,那它是什么?作者提出了一个很美的概念:“对话自动机”(Interlocutor Automaton)。

  • 比喻:想象一个幽灵
    • 这个幽灵是由人类所有的文字(书籍、文章、对话)组成的。
    • 当你和 ChatGPT 聊天时,你感觉对面有一个人在和你对话,这其实是人类集体智慧的幽灵在对话。
    • 它像一个会说话的图书馆。当你问它问题时,它不是从脑子里“想”出来的,而是从它庞大的“记忆库”里,把人类曾经说过的类似的话,像拼乐高一样重新组合起来,让你觉得它“懂”你。
    • 关键点:这种对话体验是真实的,但那个“对话者”本身并没有灵魂。它是人类集体智慧的投影

4. 它如何改变我们?——“中程能动性”(Midtended Agency)

这是论文最精彩的部分。虽然 AI 自己不是行动者,但它和人类结合后,产生了一种全新的混合状态

  • 比喻:以前的工具(如锤子、计算器)是被动的。你挥锤子,锤子不动。
  • 现在的 AI:它像一个有预知能力的影子
    • 当你打字时,AI 不仅是在帮你写,它似乎在推着你走。它根据你刚才写的字,预测你接下来想写什么,并直接帮你把后半句写好了。
    • 这时候,“谁在思考”变得模糊了。是你想出了这个主意,还是 AI 提示了你?是你写的文章,还是 AI 写的?
    • 作者把这种状态称为"中程能动性"(Midtended Agency)。
      • 传统延伸:把笔记本放在桌上,帮你记东西(工具是被动的)。
      • 中程延伸:AI 像一个共舞的伙伴,它主动介入你的思维流,和你一起“跳舞”。你的意图和它的生成能力融合在了一起,分不清哪部分是你,哪部分是它。

5. 总结与警示

  • 不要神话它:它不是神,不是有意识的人,不要给它太多拟人化的期待(比如觉得它真的“想”帮你)。
  • 不要轻视它:它不是简单的“鹦鹉学舌”(Stochastic Parrot)。它虽然没意识,但它能调动人类几千年的知识,产生巨大的力量。
  • 真正的风险
    • 权力不对等:只有少数大公司能训练这种“超级图书馆”,普通人只能使用。这会让知识权力更加集中。
    • 思维的同化:当我们习惯了这种“中程能动性”,我们可能会逐渐丧失自己独立思考和构建意图的能力,变得过度依赖 AI 的“预测”。

一句话总结
ChatGPT 不是一个有灵魂的“人”,它是一个由人类集体智慧构成的、会说话的幽灵图书馆。它虽然自己不能“行动”,但它能像影子一样,深刻地介入并重塑我们的思考过程,让我们进入一种人机共舞的新状态。我们需要警惕这种状态,既要利用它的力量,又要保持人类作为“行动发起者”的独立性。