Learning Credal Ensembles via Distributionally Robust Optimization

本文提出了 CreDRO 方法,通过分布鲁棒优化学习模型集成,将认知不确定性重新定义为训练与测试数据间分布偏移导致的模型分歧,从而在分布外检测和医疗选择分类等任务中显著优于现有方法。

Kaizheng Wang, Ghifari Adam Faza, Fabio Cuzzolin, Siu Lun Chau, David Moens, Hans Hallez

发布于 2026-02-27
📖 1 分钟阅读☕ 轻松阅读

Each language version is independently generated for its own context, not a direct translation.

这篇论文介绍了一种名为 CreDRO 的新方法,旨在让人工智能(AI)模型变得更“聪明”、更“诚实”,特别是在面对未知情况时。

为了让你更容易理解,我们可以把 AI 模型想象成一个正在备考的学生,而这篇论文就是关于如何训练这个学生,让他不仅知道答案,还能准确判断自己“有多不确定”。

1. 核心问题:AI 的“盲目自信”

在现实生活中,AI 经常犯一个错误:它不知道它不知道

  • 场景:你给一个只见过猫和狗的 AI 看一张“鸭嘴兽”的照片。
  • 普通 AI 的反应:它会非常自信地说:“这是 80% 的猫,20% 的狗!”(即使它完全错了)。
  • 理想 AI 的反应:它应该犹豫地说:“我完全没见过这种生物,我不确定这是什么。”

这种“不确定自己不知道”的能力,在学术上被称为认知不确定性(Epistemic Uncertainty, EU)。目前的顶级方法(SOTA)虽然能算出这种不确定性,但它们主要靠“随机性”来模拟。

  • 比喻:就像让同一个学生做 10 次同样的考试,但每次让他随机换一套笔、换个座位、甚至换个心情(随机初始化)。如果这 10 次考试答案不一样,我们就说“他不自信”。
  • 缺陷:这只能测出他“做题时手抖不抖”,却测不出他“是否真的没见过鸭嘴兽”。

2. 创意的解决方案:CreDRO(让 AI 经历“模拟灾难”)

这篇论文提出了一种新招:CreDRO。它的核心思想是:不要只靠随机换笔,而是要故意给 AI 制造“麻烦”,让它适应各种可能的“坏情况”。

核心比喻:模拟“水土不服”的旅行团

想象你正在训练一个导游(AI 模型),让他带团去一个陌生的地方(测试数据)。

  • 传统方法(随机初始化):让导游在同一个城市里,随机换 10 次路线走。如果他对路线描述不一致,说明他不确定。但这没模拟出“去陌生城市”的困难。
  • CreDRO 方法(分布鲁棒优化)
    1. 设定“最坏情况”:训练者告诉导游:“假设未来的游客可能来自完全不同的地方,或者天气可能突然变了。”
    2. 制造“压力测试”:在训练时,CreDRO 会给导游看不同难度的“模拟考题”。
      • 有的模型只看最容易的题(假设训练数据和测试数据很像)。
      • 有的模型专门看最难的题(假设训练数据和测试数据差异巨大,比如把猫的照片强行扭曲成鸭嘴兽的样子)。
    3. 组建“专家团”:我们训练了一群导游,每个人对“未来有多糟糕”有不同的假设(有的假设稍微有点变化,有的假设变化巨大)。

结果:

当这群“专家”聚在一起讨论时:

  • 如果大家都说“这是猫”,那 AI 就很确定。
  • 如果有的专家说“这是猫”,有的说“这是鸭嘴兽”,有的说“我完全看不懂”,这种“分歧”就是真正的“认知不确定性”
  • 这种分歧不是因为“手抖”,而是因为真的遇到了没见过的情况

3. 具体是怎么做的?(技术通俗版)

论文中用了一个叫分布鲁棒优化(DRO)的技术,我们可以把它想象成“挑刺训练法”

  1. 挑选“刺头”样本:在每一批训练数据中,AI 会找出那些它最搞不懂、最容易做错的图片(损失值最高的样本)。
  2. 调整“难度系数”
    • 我们设定一个参数(论文叫 δ\delta)。
    • 如果 δ\delta 很小,AI 只盯着那些最难的“刺头”学(模拟巨大的环境变化)。
    • 如果 δ\delta 很大,AI 就学所有数据(模拟环境变化不大)。
  3. 组建“多样性团队”:我们训练 20 个 AI 模型,每个模型设定的“难度系数”都不一样(从稍微难一点到超级难)。
  4. 形成“置信区间”
    • 当遇到新问题时,这 20 个模型会给出 20 个不同的答案。
    • CreDRO 不会取平均值,而是画出**“答案的范围”**。
    • 比如:模型 A 说“是猫(90%)”,模型 B 说“是鸭嘴兽(60%)”。
    • 最终输出:猫的概率在 60% 到 90% 之间。这个范围的大小,就是 AI 的“不确定程度”。范围越大,AI 越觉得自己可能搞错了。

4. 为什么这个方法更好?(实战表现)

论文在几个关键任务上测试了 CreDRO,效果吊打其他方法:

  • 任务一:发现“外来物种”(异常检测)

    • 场景:AI 在识别正常图片(如猫狗),突然来了一张“汽车”或“鸭嘴兽”。
    • 表现:CreDRO 能立刻意识到“这不对劲”,并给出巨大的不确定性范围,从而报警。其他方法可能还会自信地把它归类为猫。
    • 比喻:就像经验丰富的老导游,看到游客穿得完全不像当地人,立刻警觉:“这不对劲,我们要小心!”
  • 任务二:医疗诊断(选择性分类)

    • 场景:医生用 AI 看病理切片。
    • 表现:如果 AI 很确定,它就给医生看结果;如果 AI 觉得“我不确定”(不确定性高),它就拒绝回答,建议医生亲自看。
    • 结果:CreDRO 能更精准地识别出那些它“拿不准”的病例,从而避免误诊。这在医疗安全上至关重要。

5. 总结:这篇论文的伟大之处

  • 以前的 AI:像是一个死记硬背的学生,只要题目稍微变个形,他就开始瞎猜,还觉得自己猜得很对。
  • 现在的 CreDRO:像是一个经验丰富的老手,他不仅知道答案,还能通过模拟各种“极端情况”,知道自己哪里懂、哪里不懂
  • 核心价值:它不再把“不确定性”看作是随机误差,而是看作是对未知世界的真实反应。这让 AI 在自动驾驶、医疗诊断等高风险领域变得更加可靠和值得信赖。

简单来说,CreDRO 就是给 AI 装了一个**“自知之明”的仪表盘**,让它知道什么时候该说“我不确定,请人类介入”,从而避免灾难性的错误。

在收件箱中获取类似论文

根据您的兴趣定制的每日或每周摘要。Gist或技术摘要,使用您的语言。

试用 Digest →