Upholding Epistemic Agency: A Brouwerian Assertibility Constraint for Responsible AI

本文提出一种受布劳威尔启发的负责任人工智能断言约束,要求在高 stakes 领域仅当系统能提供公开可审查的资格证明时方可断言或否定,否则必须返回“未定”状态,以此通过三值接口语义和可挑战的凭证机制来维护人类在公共论证中的认识论能动性。

Michael Jülich

发布于 2026-03-05
📖 1 分钟阅读☕ 轻松阅读

Each language version is independently generated for its own context, not a direct translation.

这篇文章提出了一种让 AI 变得更“负责任”的新方法,核心思想可以概括为:“没有证据,就不下结论”

为了让你轻松理解,我们可以把这篇论文想象成在讨论如何给一个**“超级自信的 AI 记者”制定新的“新闻发布纪律”**。

1. 问题:AI 的“胡说八道”太像真的了

想象一下,你问一个 AI 记者:“某位部长是不是腐败了?”
现在的 AI(生成式 AI)就像是一个口才极佳的“鹦鹉”。它读过很多书,能流利地回答你:“是的,部长肯定腐败了!”或者“不,他绝对清白!”

  • 危险在哪里? 即使它说错了(比如它只是根据概率猜的,或者被误导了),它说话的样子太像专家了,充满了自信。这会让普通老百姓误以为这就是**“定论”**,从而放弃自己去思考、去查证。
  • 后果: 民主社会依赖大家能自己判断真假。如果 AI 总是抢先给出看似权威的“判决”,我们就失去了**“认知自主权”**(Epistemic Agency),也就是我们作为公民去认识世界、判断是非的能力。

2. 解决方案:布劳威尔的“三档开关”

作者提出,要解决这个问题,我们需要给 AI 装上一个**“布劳威尔式(Brouwerian)的发言开关”。这个名字听起来很学术,但我们可以把它想象成“只有拿到通行证才能说话”**的规则。

作者建议 AI 的输出不能只有“是”或“否”两个选项,而应该有三个状态

  1. ✅ 已证实 (Asserted): 我可以说“是”。
    • 条件: 我手里拿着**“通行证”**(Certificate)。这个通行证必须是可以被公众检查、被质疑的(比如:有确凿的文件、经过审计的计算证明)。
  2. ❌ 已证伪 (Denied): 我可以说“不”。
    • 条件: 我手里拿着**“反证通行证”**(比如:有确凿证据证明他是清白的)。
  3. ❓ 未定 (Undetermined): 我闭嘴,我不说。
    • 条件: 如果我没有拿到通行证,或者证据还不够铁,我就必须说:“目前证据不足,我无法下结论。”

关键点: 这个“未定”状态不是因为 AI 太笨了,也不是因为它在“犹豫”,而是一种强制性的纪律。就像法官在证据不足时必须宣布“无罪”或“休庭”,而不是胡乱判案一样。

3. 核心比喻:AI 的“身份证”与“通行证”

为了让你更明白这个机制是如何运作的,我们可以用两个比喻:

比喻一:法庭上的“证据链”

想象 AI 是一个**“自动化的法庭书记员”**。

  • 现在的 AI: 像是一个只会背台词的演员。它不管有没有证据,只要觉得“大概率是这样”,就大声宣布判决。
  • 新的 AI(本文方案): 像一个严格的法官。
    • 如果它想宣布“有罪”(Asserted),它必须把**“证据包”**(Certificate)扔在桌子上。这个证据包必须包含:数据来源、计算过程、审计记录,任何人都能拿去检查。
    • 如果它拿不出这个证据包,它绝对不能说“有罪”。它只能说:“证据不足,案件未定(Undetermined)”。
    • 目的: 强迫 AI 把“猜测”和“事实”分开。它不再是一个“预言家”,而是一个“证据展示者”。

比喻二:修路时的“施工警示牌”

想象 AI 在一条名为“公共讨论”的高速公路上开车。

  • 现在的 AI: 开得飞快,不管前面有没有路,它都自信地冲过去,甚至把路障当成风景。
  • 新的 AI: 它手里拿着一个**“施工检测器”**。
    • 如果检测器显示路面坚实(有通行证),它就可以继续开,并告诉路人:“路是通的”。
    • 如果检测器显示路面塌陷,或者它没带检测器,它必须立刻停下,竖起**“前方未定,请绕行”**的牌子(Undetermined)。
    • 为什么这么做? 是为了防止路人(公众)因为盲目相信 AI 的“自信”而掉进坑里。

4. 这个方案如何保护我们?

这个方案的核心在于**“把责任还给人”**。

  • 以前: AI 说“部长腐败了”,你信了,因为 AI 看起来太专业了。你放弃了思考。
  • 现在: AI 说“目前证据不足,无法下结论(Undetermined)”,并附上理由:“因为目前的文件还没经过官方审计,或者计算结果还在模糊区间。”
    • 这时候,(作为公民)就会意识到:“哦,原来这件事还没查清楚,我需要自己去关注后续的新闻,或者去监督调查。”
    • AI 没有剥夺你的判断权,反而保护了你的判断权。它强迫你面对“不确定性”,而不是让你沉溺于虚假的“确定性”中。

5. 总结:给 AI 戴上“紧箍咒”

这篇论文其实是在说:
在涉及人命、法律、选举等高风险领域,AI 不应该是一个**“全知全能的预言家”,而应该是一个“严谨的证据搬运工”**。

  • 如果它不能拿出铁证,它就闭嘴。
  • 如果它乱说话,就是违规。

作者借用了一位数学家(布劳威尔)的思想:数学真理不是预先存在的,而是通过一步步构建出来的。同理,AI 的“真理”也不应该是它随口说出来的,而必须是一步步构建出来的、可被检查的证据

一句话总结:
这篇论文给 AI 定了一条新规矩:“没有铁证,不许乱说;如果证据不足,就老实承认‘我不知道’。” 只有这样,我们人类才能继续做世界的主人,而不是被 AI 的“自信”牵着鼻子走。