Causal Decoding for Hallucination-Resistant Multimodal Large Language Models

该论文提出了一种因果解码框架,通过在生成过程中施加针对性的因果干预来抑制多模态大语言模型中的对象幻觉,从而在保持输出质量的同时显著提升了模型的忠实度。

Shiwei Tan, Hengyi Wang, Weiyi Qin, Qi Xu, Zhigang Hua, Hao Wang

发布于 2026-02-26
📖 1 分钟阅读☕ 轻松阅读

Each language version is independently generated for its own context, not a direct translation.

这篇论文介绍了一种名为 COAD 的新方法,旨在解决多模态大语言模型(MLLM)的一个致命弱点:“幻觉”

简单来说,就是现在的 AI 看图说话时,经常“瞎编乱造”。比如图片里只有一只猫,AI 却信誓旦旦地说:“一只猫坐在红色的沙发上,旁边还有一把叉子。”其实图片里根本没有沙发和叉子。

这篇论文就像给 AI 装了一个**“防忽悠”的因果推理引擎**。下面我用几个生活中的比喻来解释它是怎么工作的。

1. 问题所在:AI 的“脑补”习惯

想象一下,你让一个记忆力很好但有点爱幻想的画家(普通的大模型)描述一张照片。

  • 场景:照片里有一块披萨和一把刀。
  • 画家的反应:他看着照片,嘴里念叨着“披萨、刀……"。因为他在脑海里把“披萨”和“刀”联系得太紧密了,他的潜意识开始自动脑补:“既然有披萨和刀,那肯定还有叉子吧?肯定还有盘子吧?”
  • 结果:他画出来(写出来)了叉子和盘子,尽管照片里根本没有。这就是“幻觉”。

原因:AI 太依赖它刚才说过的话(比如说了“刀”),就自动联想到了“叉子”,而忽略了眼睛看到的真实画面。它被自己产生的文字“带偏”了。

2. 解决方案:COAD 的“三管齐下”

COAD 就像给这位画家配了一位**“较真的验货员”和一个“因果侦探”**。

第一步:请个“验货员”(物体检测器)

在画家开始动笔之前,COAD 先请一位专业的验货员(物体检测器)快速扫一眼照片。

  • 验货员会列出一张清单:“照片里确实有:披萨(90% 概率)、人(70% 概率)、烤箱(40% 概率)。没有刀,没有叉子。”
  • 这张清单就是**“视觉事实”**,它不依赖画家的想象,只依赖照片本身。

第二步:训练画家“听指挥”(微调模型)

COAD 把这位画家(大模型)重新训练了一下。

  • 以前:画家只看照片和刚才说的话。
  • 现在:画家必须同时看照片、听刚才说的话,还要看验货员的清单
  • 如果清单上说“没有叉子”,画家就算脑子里再想“有刀必有叉”,也必须强行忍住,不能写出来。

第三步:侦探介入,切断“脑补”链条(因果干预)

这是最精彩的部分,也是论文的核心——因果推理

  • 普通画家的逻辑:因为刚才说了“刀”(原因 A),所以我觉得应该有“叉子”(结果 B)。这是一种虚假的关联
  • COAD 的逻辑:侦探发现,画家之所以想写“叉子”,是因为他太在意刚才说过的话,而忽略了验货员的清单
  • 干预手段:COAD 使用一种叫**“因果干预”(do-calculus)的魔法。它强行把“刚才说的话”和“画家的脑补”之间的连线剪断**。
    • 它告诉画家:“别管你刚才说了什么,只看验货员的清单和照片。如果清单上没有,就绝对不要写。”
    • 这就好比在画家动笔前,把他脑子里那些因为“惯性”产生的错误联想全部清空,只保留基于真实证据的判断。

3. 最终效果:去伪存真

经过这套流程,AI 生成的描述变得非常**“诚实”**:

  • 以前:“披萨、刀、叉子、盘子……"(全是瞎编的)。
  • 现在:“披萨、刀……"(只说照片里有的,没有的绝不乱说)。

4. 为什么这很重要?

这就好比在医疗诊断法律取证中,AI 不能“瞎编”病人身上有没见过的肿瘤,也不能“瞎编”文件里没提到的条款。

  • 普通 AI:像是一个爱吹牛的导游,为了把故事讲得精彩,会编造很多景点。
  • COAD 的 AI:像是一个严谨的考古学家,手里拿着清单,清单上没有的文物,他绝口不提

总结

这篇论文的核心思想就是:不要让 AI 被自己的“话痨”习惯带偏,要用外部的“事实清单”和“因果逻辑”来强行纠正它。

通过这种方法,论文中的 AI 在多个测试中,把“瞎编乱造”的错误率降到了最低,同时还能保持描述得通顺、漂亮。这就好比给 AI 戴上了一副**“防幻觉眼镜”**,让它能更真实地看清世界。

在收件箱中获取类似论文

根据您的兴趣定制的每日或每周摘要。Gist或技术摘要,使用您的语言。

试用 Digest →