Universal Anti-forensics Attack against Image Forgery Detection via Multi-modal Guidance

本文提出了名为 ForgeryEraser 的通用反取证攻击框架,通过利用视觉 - 语言模型(VLM)的共享特征空间并设计多模态引导损失,将伪造图像嵌入推向真实锚点从而有效欺骗现有 AIGC 检测器并诱导其生成与真实图像一致的解释。

Haipeng Li, Rongxuan Peng, Anwei Luo, Shunquan Tan, Changsheng Chen, Anastasia Antsiferova

发布于 2026-02-20
📖 1 分钟阅读☕ 轻松阅读

Each language version is independently generated for its own context, not a direct translation.

这篇论文讲述了一个关于“如何欺骗 AI 鉴伪系统”的研究,作者提出了一种名为 ForgeryEraser(伪造橡皮擦) 的新方法。

为了让你轻松理解,我们可以把整个故事想象成一场**“高智商的伪装游戏”**。

1. 背景:AI 造假 vs. AI 鉴伪

  • 现状:现在的 AI 画图技术(比如 Midjourney, Stable Diffusion)太厉害了,生成的图片逼真到肉眼几乎分不清真假。
  • 对策:为了抓出这些假图,科学家们开发了很多“鉴伪侦探”(AI 检测器)。
  • 新趋势:以前的侦探是靠找“像素级的瑕疵”(比如噪点、边缘模糊)来抓鬼。但现在的侦探升级了,它们不再只看像素,而是借用了更强大的“大脑”——也就是多模态大模型(如 CLIP)。这些大模型懂语义,能理解“这张图看起来像不像真的”,甚至能写出“为什么它是假的”的解释。

2. 核心发现:大家都用同一个“大脑”

作者发现了一个巨大的系统漏洞

  • 比喻:想象所有的“鉴伪侦探”虽然名字不同、穿着不同(不同的检测模型),但它们共用同一个“大脑”(比如 CLIP 模型)来处理图片。
  • 漏洞:既然大家共用一个大脑,那么只要你能骗过这个“大脑”,就能骗过所有基于这个大脑的侦探。你不需要知道每个侦探的具体内部构造,只需要针对它们共用的“大脑”下手就行。

3. 解决方案:ForgeryEraser(伪造橡皮擦)

作者提出的 ForgeryEraser 就是一个专门针对这个“共用大脑”的万能伪装工具

它是如何工作的?(三个步骤)

第一步:给 AI 大脑“洗脑”(多模态引导)

  • 传统方法:以前的攻击者试图在图片上加一些肉眼看不见的噪点,让 AI 算错。这就像给侦探脸上撒面粉,效果有限。
  • 新方法:ForgeryEraser 不撒面粉,而是直接修改图片在 AI 大脑里的“概念”
    • 它给 AI 大脑准备了两组“锚点”(就像两个路标):
      • 真路标:写着“自然、真实、无缝融合”。
      • 假路标:写着“蜡状皮肤、生成痕迹、生硬边缘”。
    • 它通过数学计算,强行把假图片在 AI 大脑里的“位置”,从“假路标”旁边,硬生生地拉到了“真路标”旁边
    • 比喻:就像你给一个假人穿上真人的衣服,甚至让它说话、走路都像真人,骗过了所有认识它的人。

第二步:看人下菜碟(源感知策略)

  • 作者发现,不同类型的造假(比如“全图生成”和“局部修图”)留下的痕迹不同。
  • ForgeryEraser 很聪明,它会先判断这张图是“全图生成的”还是“局部 P 图的”,然后选择对应的“真路标”和“假路标”。
    • 如果是全图生成,它就强调“自然的光影”;
    • 如果是局部修图,它就强调“无缝的拼接”。
  • 这样能更精准地擦除痕迹。

第三步:让侦探“自圆其说”(最可怕的地方)

  • 最惊人的是,这个工具不仅能骗过侦探的“判断”(把假说成真),还能骗过侦探的“解释”。
  • 比喻:以前侦探发现假图会说:“看,这里边缘太硬了,是 P 的。”
  • 用了 ForgeryEraser 后,侦探不仅说“这是真的”,还会一本正经地胡说八道:“看,这里的光影交互非常符合物理定律,非常自然。”
  • 结果:侦探不仅判错了,还觉得自己判得特别有理有据。

4. 实验结果:效果惊人

作者用这个工具攻击了目前世界上最先进的 6 种 AI 鉴伪系统:

  • 结果:这些原本很厉害的侦探,在遇到 ForgeryEraser 后,准确率断崖式下跌
    • 有的系统原本能 99% 认出假图,现在只能认出 0.5%(几乎全瞎了)。
    • 有的系统甚至把假图当成了真图,准确率从 90% 跌到了 5%。
  • 通用性:不管假图是用什么技术生成的(扩散模型、GAN 等),这个工具都能通吃。
  • 抗干扰:即使把图片压缩、模糊处理,这个伪装依然有效。

5. 总结与启示

这篇论文就像给安全界敲了一记警钟:

  • 问题:我们太依赖那些通用的、公开的“大模型大脑”来做鉴伪了,这反而成了最大的弱点。
  • 启示:如果未来的鉴伪系统都共用同一个“大脑”,那么一旦这个“大脑”被攻破,整个防线就会崩塌。
  • 未来:我们需要开发更安全的系统,不能只依赖单一的通用模型,要防止这种“万能伪装”的出现。

一句话总结
作者发现所有 AI 鉴伪系统都共用同一个“大脑”,于是发明了一个工具,通过给假图“洗脑”,强行把它们在 AI 大脑里的概念变成“真”的,不仅让 AI 认不出假图,还让 AI 自信满满地给假图写“无罪辩护词”。

在收件箱中获取类似论文

根据您的兴趣定制的每日或每周摘要。Gist或技术摘要,使用您的语言。

试用 Digest →