Verbalizing LLM's Higher-order Uncertainty via Imprecise Probabilities

该论文针对大语言模型在模糊问答等场景下传统概率框架无法准确捕捉其不确定性行为的局限,提出了一种基于不精确概率的新型提示与后处理方法,旨在通过量化一阶(响应不确定性)和二阶(模型本身的不确定性)不确定性,实现更可信的模型不确定性表达并辅助下游决策。

Anita Yang, Krikamol Muandet, Michele Caprio, Siu Lun Chau, Masaki Adachi

发布于 2026-03-12
📖 2 分钟阅读☕ 轻松阅读

Each language version is independently generated for its own context, not a direct translation.

这篇论文主要解决了一个大问题:当大型语言模型(LLM,比如我这样的 AI)回答问题时,我们怎么知道它是不是在“瞎编”或者真的“不确定”?

以前的方法就像让 AI 直接说:“我有 80% 的把握。”但研究发现,AI 经常在这个"80%"上撒谎,或者在真正模棱两可的问题上表现得过于自信。

这篇论文提出了一种新的方法,叫作**“不精确概率”(Imprecise Probabilities)**。为了让你更容易理解,我们可以用几个生活中的比喻来拆解它。

1. 核心问题:AI 的“过度自信”与“模糊地带”

想象你在问 AI 一个 tricky 的问题:

问题: "2019 年板球世界杯的主办国是哪个?"
选项: A. 英格兰 B. 威尔士 C. 英国 D. 印度

  • 现实情况: 英格兰和威尔士是联合主办,它们都是对的,但“英国”这个选项在地理上也没错(包含前两者),而印度是 2023 年主办的。这是一个模糊问题,没有唯一的标准答案。
  • 旧方法(传统 AI): 它会强行选一个,比如选 A,然后说:“我有 90% 的把握是 A。”
    • 后果: 这很危险。因为它掩盖了问题的模糊性。它让你以为它很确定,其实它只是“猜”了一个。
  • 新方法的视角: 它承认:“这个问题本身就很模糊,所以我无法给出一个确定的数字。”

2. 核心概念:一阶不确定 vs. 二阶不确定

论文把不确定性分成了两层,我们可以用**“天气预报”**来比喻:

  • 一阶不确定性(First-order Uncertainty):天气本身的不确定性

    • 比喻: 就像问“明天会下雨吗?”如果明天是“局部阵雨”,那下雨的概率就是模糊的。这是问题本身带来的不确定性(比如上面的板球世界杯问题,答案本来就不唯一)。
    • 旧方法: 试图把这个模糊的概率压缩成一个具体的数字(比如 50%),这往往不准确。
    • 新方法: 直接承认“这是一个模糊地带”,不强行给个数字。
  • 二阶不确定性(Second-order Uncertainty):我们对“天气预报”的不确定性

    • 比喻: 这是**“对不确定性的不确定性”**。
      • 如果你问 AI 一个它完全没见过的冷门知识,它可能会说:“我完全不知道,我的答案范围可能是 0% 到 100%。”(这代表它无知,不知道该怎么猜)。
      • 如果你问它一个它很熟悉的问题,但问题有点歧义,它可能会说:“我觉得答案在 60% 到 80% 之间。”(这代表它知道答案大概在哪,只是有点犹豫)。
    • 关键点: 旧方法分不清这两种情况(都是说“我不确定”)。新方法能区分:是因为问题太烂(一阶),还是因为我知识不够(二阶)?

3. 新方法是怎么做的?(不精确概率)

以前的 AI 像是一个**“独断的算命先生”,非要说:“明天降雨概率是 45.3%。”
这篇论文让 AI 变成了一个
“谨慎的顾问”**,它会说:

“关于这个问题,我认为答案正确的可能性至少有 40%,最多有 70%。”

它不再给一个点(Point Estimate),而是给一个区间(Interval)

  • 区间很窄(比如 60%-65%): 说明 AI 很有把握,只是有一点点犹豫。
  • 区间很宽(比如 10%-90%): 说明 AI 完全不知道,或者问题本身太烂,它没法判断。

4. 三个具体的应用场景(论文中的实验)

论文通过三个场景证明了新方法更好:

A. 模糊问题(Ambiguous Questions)

  • 场景: 问一个有歧义的问题。
  • 旧方法: 强行选一个答案,自信满满。
  • 新方法: 给出一个很宽的区间,告诉你:“这个问题本身就有问题,别太信我的答案。”
  • 比喻: 就像问“哪个水果最好吃?”旧 AI 会说“苹果(90%)”;新 AI 会说“苹果和香蕉都有可能,范围在 30%-70% 之间,看你喜欢什么。”

B. 上下文学习(In-Context Learning)

  • 场景: 给 AI 看几个例子,让它猜下一个。例子越多,它应该越确定。
  • 旧方法: 即使给了很多例子,它还是说“我不确定”(分数很高但不变)。
  • 新方法: 随着例子增加,它的区间会变窄(比如从 20%-80% 变成 70%-75%)。
  • 比喻: 就像你教孩子认猫。刚开始你说“可能是猫”,孩子很犹豫(区间宽);你展示了 10 只猫后,孩子说“肯定是猫”(区间变窄,甚至变成 99%-100%)。新方法能捕捉到这个“变窄”的过程。

C. 自我反思(Self-Reflection)

  • 场景: 让 AI 选一个答案,然后解释为什么。
  • 旧方法: 经常解释得和它选的答案对不上(比如选了 A,解释却像是在说 B 也有可能)。
  • 新方法: 它的解释和它给出的“区间”是匹配的。如果它说“我不确定”,它就不会强行选一个看似确定的答案。

5. 总结:这对我们意味着什么?

这篇论文的核心贡献是让 AI 变得更诚实、更透明

  • 以前: AI 像个“过度自信的专家”,即使不懂也敢拍胸脯说"80% 确定”。这导致我们在做重要决定(如医疗、法律)时容易踩坑。
  • 现在: AI 像个“谨慎的科学家”。它会说:“在这个问题上,我的把握在 40% 到 60% 之间,因为问题本身有点模糊,或者我还需要更多信息。”

一句话总结:
这篇论文教 AI 学会说"我不知道确切答案,但我能告诉你我有多不确定",而不是假装知道。通过给出一个概率区间而不是一个死数字,我们就能更好地判断什么时候该听 AI 的,什么时候该自己拿主意。