Modelling Language using Large Language Models

本文主张大型语言模型可作为公共语言的外部社会实体之科学模型,并通过构建模型解释(model construal)来反驳其缺乏语言学洞察力的观点,从而确立其在语言研究中的科学价值。

Jumbly Grindrod

发布于 2026-03-12
📖 1 分钟阅读☕ 轻松阅读

Each language version is independently generated for its own context, not a direct translation.

这篇文章探讨了一个非常有趣的问题:大型语言模型(LLM,比如我们熟悉的 ChatGPT)到底能不能帮我们真正理解“语言”?

作者 Jumbly Grindrod 认为:能!但前提是我们得换个角度看它们。

为了让你轻松理解,我们可以把这篇论文的核心思想想象成一场关于“如何研究天气”的讨论。

1. 核心争论:是“预言家”还是“气象图”?

传统的观点(反对派):
很多语言学家(比如乔姆斯基的追随者)认为,语言是人脑内部的一种复杂能力(就像大脑里有一个专门的“语言器官”)。他们觉得,LLM 只是通过死记硬背海量数据,学会了预测下一个字是什么。

  • 比喻: 这就像一只鹦鹉,它能完美模仿人类说话,但它并不懂语法,也不懂语言背后的逻辑。所以,LLM 只是“鹦鹉学舌”,不能告诉我们人类大脑是怎么处理语言的。

作者的观点(支持派):
作者说,大家太纠结于“人脑内部”了。其实,语言不仅仅是脑子里的东西,它更像是一个外部的、社会性的公共产品(就像货币、交通规则或法律)。

  • 比喻: 想象一下“交通”。
    • I-语言(内部语言): 就像每个司机脑子里的驾驶技术。
    • E-语言(外部语言): 就像整个城市的交通流量图交通规则
    • 作者认为,LLM 不需要模拟每个司机的脑子,它可以直接模拟整个城市的交通流量图

2. 核心概念:LLM 不是“理论”,而是“模型”

作者提出了一个关键的区别:理论(Theory) vs 模型(Model)

  • 理论:试图解释“为什么”会发生。比如,物理学家试图解释“引力为什么存在”。
  • 模型:是一个替身模拟器,用来代表现实世界中的某个现象,帮我们观察和预测。
    • 比喻: 气象学家不会直接去研究每一滴雨水的分子结构(那是理论),他们会建立一个气象模型(比如电脑里的模拟程序)。这个程序不是“雨”,但它能模拟风的走向、降雨的概率。

作者的观点是:
LLM 不应该被看作是一个解释人类大脑如何工作的“理论”,而应该被看作是一个模拟“公共语言”的“模型”

  • 它就像一张巨大的、动态的语言地图
  • 它通过阅读互联网上所有的文字,学会了这个语言社区是如何交流的。它捕捉到了语言作为“社会习俗”的规律。

3. 最大的挑战:黑箱与“地图绘制员”

有人可能会问:“如果 LLM 是个黑箱(我们不知道它内部具体怎么运作),那它怎么当模型呢?我们怎么知道它画的是对的?”

作者用了一个很棒的比喻来回答:

  • 比喻: 想象你在画一张地铁线路图
    • 你不需要知道每一根电缆是怎么铺设的,也不需要知道列车引擎的每一个零件(那是“黑箱”)。
    • 你只需要知道:A 站和 B 站之间确实有连接,而且乘客确实是这样走的。
    • 只要这张图能准确预测乘客的路线,它就是一个好模型。

作者认为:
虽然 LLM 内部很复杂(黑箱),但现在的技术(比如“可解释性 AI")正在帮我们看清它的内部结构。

  • 研究发现,LLM 的某些部分确实能像人类一样识别“语法结构”(比如主谓宾关系)。
  • 这意味着,我们可以给这个“黑箱”画一张说明书(Construal),告诉科学家:看,这部分神经元在模拟“语法”,那部分在模拟“语义”。
  • 一旦我们有了这张说明书,LLM 就不再是黑箱,而变成了一个科学的实验工具

4. 反驳“它只是训练数据的压缩包”

还有一个反对意见说:"LLM 不就是把训练数据压缩了一下吗?它只是记住了书里的内容,没有学到真正的语言。”

作者反驳道:

  • 比喻: 这就像说“天气预报只是记住了过去 100 年的天气记录”。
    • 如果 LLM 只是死记硬背,那它叫“过拟合”(Overfitting),在机器学习中这是错误的,就像学生死记硬背答案但不会做新题。
    • 真正的 LLM 被设计成要举一反三。它必须学会规律,才能预测它没见过的句子。
    • 就像气象模型必须理解“气压”和“温度”的规律,才能预测明天的天气,而不是只背诵昨天的天气。
    • LLM 在预测下一个字时,实际上是在学习语言背后的社会规则(比如大家习惯怎么说话),而不仅仅是复制粘贴。

总结:这篇论文想告诉我们什么?

  1. 换个视角: 别把 LLM 当成“人脑的替代品”,把它当成**“语言社会行为的模拟器”**。
  2. 科学价值: LLM 就像是一个巨大的语言实验室。我们可以通过观察它,发现人类语言作为“社会现象”的规律(比如哪些词经常一起出现,哪些语法结构最流行)。
  3. 未来展望: 虽然我们现在还在努力搞清楚 LLM 内部到底是怎么运作的(就像还在完善那张地铁地图),但这已经是一个全新的、充满希望的科学研究领域了。

一句话总结:
LLM 不是试图模仿人类的大脑,而是像气象卫星一样,从高空俯瞰并模拟整个语言社会的运行规律。只要我们能读懂它发出的信号,它就能成为我们理解人类语言的一把新钥匙。