Know When to Abstain: Optimal Selective Classification with Likelihood Ratios

本文从 Neyman-Pearson 引理出发,提出了一种基于似然比的最优选择性分类新方法,该方法不仅统一了现有基线,更在协变量偏移等挑战性场景下显著提升了模型在视觉和语言任务中的预测可靠性。

Alvin Heng, Harold Soh

发布于 2026-03-04
📖 1 分钟阅读☕ 轻松阅读

Each language version is independently generated for its own context, not a direct translation.

这篇论文提出了一种让 AI 变得更“聪明”、更“诚实”的新方法。简单来说,它教 AI 学会**“知之为知之,不知为不知”**。

想象一下,你正在参加一场高难度的考试。

  • 普通的 AI:无论题目多难,它都敢瞎猜一个答案,哪怕心里完全没底。这就像是一个不懂装懂的学生,乱填答案,结果错得离谱。
  • 这篇论文提出的 AI:遇到不会的题,它会举手说:“老师,这道题我实在没把握,我放弃回答(Abstain)。”这样,它只回答那些它有把握的题,整体正确率自然就大大提高了。

这篇论文的核心贡献,就是设计了一套**“如何判断什么时候该放弃”**的聪明规则。

1. 核心思想:像侦探一样找线索(Neyman-Pearson 引理)

以前,AI 判断自己是否自信,通常靠一些“直觉”:

  • 看分数:比如它觉得“猫”的概率是 90%,那就很自信。
  • 看差距:比如“猫”90%,“狗”5%,差距很大,那就很自信。

但这篇论文的作者觉得,这些方法太“表面”了。他们引用了一个经典的统计学原理(Neyman-Pearson 引理),把这个过程比作侦探破案

侦探的比喻
侦探手里有两个假设:

  1. 假设 A(正确):这个嫌疑人是好人(AI 预测对了)。
  2. 假设 B(错误):这个嫌疑人是坏人(AI 预测错了)。

侦探的任务是:根据眼前的线索(输入的图片或文字),判断是 A 的可能性大,还是 B 的可能性大。

最聪明的做法是计算一个**“嫌疑比率”**:

  • 如果这个人的特征跟“好人库”里的很像,跟“坏人库”里的很不像,那就接受(AI 自信地回答)。
  • 如果这个人的特征跟“坏人库”里的很像,或者跟两边都模棱两可,那就拒绝(AI 选择放弃)。

论文指出,以前很多 AI 的方法其实是在这个比率,而作者提出的新方法,是直接计算这个比率,让 AI 的判断更精准。

2. 新发明的两个“侦探工具”

作者设计了两个新的“侦探工具”(算法),专门用来计算这个“嫌疑比率”:

工具一:Δ\Delta-MDS(马氏距离差)—— “找同类”

  • 原理:想象有一个“正确回答的样本库”和一个“错误回答的样本库”。
  • 做法:当新题目来了,AI 会看它离“正确样本库”有多近,离“错误样本库”有多远。
  • 比喻:就像在一个聚会上,如果你发现新来的人跟“学霸们”坐在一起很自然,但跟“捣蛋鬼们”坐在一起很别扭,那他就是个学霸(AI 可以回答)。如果他在两边都显得格格不入,或者离捣蛋鬼太近,AI 就放弃回答。
  • 特点:这个方法假设数据分布像“云朵”一样(高斯分布),非常适合那些经过严格训练的传统 AI 模型。

工具二:Δ\Delta-KNN(K 近邻差)—— “数邻居”

  • 原理:不假设数据像云朵,而是直接看“邻居”。
  • 做法:在新题目周围找最近的 50 个邻居。如果这 50 个邻居里,大部分是“答对的”,那就自信;如果大部分是“答错的”,或者邻居很杂乱,那就放弃。
  • 比喻:就像在森林里迷路了。如果你周围都是认识路的向导(答对的样本),你就跟着走;如果你周围都是指错路的人(答错的样本),或者你发现周围人都在往悬崖走,你就停下来别动。
  • 特点:这个方法更灵活,不需要假设数据形状,特别适合像 CLIP 这样强大的、基于对比学习的现代大模型。

3. 为什么要这么做?(应对“水土不服”)

论文特别强调了一个场景:协变量偏移(Covariate Shift)

  • 场景比喻
    • 你训练 AI 的时候,给它看的是高清的、光线好的猫的照片(训练数据)。
    • 但在实际使用时,AI 看到的可能是手绘的猫、素描、或者模糊的猫(测试数据,分布变了)。
    • 这时候,普通的 AI 可能会因为“没见过这种画风”而胡乱猜,因为它以为只要像猫就行。
    • 但我们的新 AI 会想:“等等,这种画风跟我以前见过的‘答对’的猫不太像,反而跟我以前‘答错’的奇怪图片有点像。为了安全起见,我不回答,让人类专家来答吧。”

这就是论文最厉害的地方:它让 AI 在面对没见过的新风格、新环境时,能更敏锐地察觉到自己“可能错了”,从而主动放弃,避免犯错。

4. 实验结果:真的好用吗?

作者在各种任务上测试了这套方法,包括:

  • 看图说话(识别图片里的物体)。
  • 阅读理解(分析亚马逊的商品评论)。
  • 大模型(像 CLIP 这样能理解图文的超级 AI)。

结果非常惊人

  • 在同样的“放弃率”下(比如都放弃 20% 的难题),使用新方法的 AI,答对剩下的题的准确率比以前的方法高得多。
  • 特别是把“找同类”(Δ\Delta-MDS)和“看分数”(RLog)结合起来,效果最好。就像是一个既懂统计又懂直觉的超级侦探。

总结

这篇论文就像给 AI 装了一个**“诚实的刹车系统”**。

以前的 AI 是“油门踩到底,撞了再说”;现在的 AI 是“前面路况不明,先减速,如果不确定就停车,让人类来开”。

通过利用统计学中经典的“似然比”原理,作者让 AI 学会了在数据分布发生变化(比如从照片变成素描,从白天变成黑夜)时,如何更聪明地判断自己的信心,从而在保持高准确率的同时,极大地提升了系统的可靠性。这对于医疗诊断、自动驾驶等不能出错的领域来说,意义重大。

在收件箱中获取类似论文

根据您的兴趣定制的每日或每周摘要。Gist或技术摘要,使用您的语言。

试用 Digest →