Attribution as Retrieval: Model-Agnostic AI-Generated Image Attribution

该论文提出了一种名为 LIDA 的模型无关框架,通过将 AI 生成图像溯源问题重构为实例检索任务,利用低位平面指纹生成及无监督预训练结合少样本适应策略,在零样本和少样本设置下实现了最先进的检测与溯源性能。

Hongsong Wang, Renxi Cheng, Chaolei Han, Jie Gui

发布于 2026-03-12
📖 1 分钟阅读☕ 轻松阅读

Each language version is independently generated for its own context, not a direct translation.

这篇论文介绍了一种名为 LIDA 的新方法,用来解决一个越来越棘手的问题:如何快速、准确地识别一张图片是不是 AI 生成的,以及如果是 AI 生成的,它具体是哪个“画家”(AI 模型)画的?

为了让你更容易理解,我们可以把这件事想象成**“寻找失散多年的画作”“指纹识别”**的故事。

1. 背景:AI 画画的“造假”危机

现在的 AI(比如 Midjourney、Stable Diffusion)画画太逼真了,肉眼几乎分不清真假。

  • 传统方法:以前的侦探(检测工具)是靠找“破绽”(比如手指画错了、光影不对)来识别假画。但现在的 AI 太聪明了,破绽越来越少,老方法不管用了。
  • 水印方法:有些专家建议让 AI 在画画时偷偷埋个“隐形水印”。但这有个大毛病:你得先知道这个 AI 是谁,并且能控制它。如果网上突然冒出一个全新的、你没见过的 AI 模型,或者你拿到的图是别人用那个新模型画的,你就没法用“水印”去查了。

2. 核心创新:从“考试”变成“查户口”

这篇论文提出了一个全新的思路:不要把识别 AI 图当成“做选择题”(分类问题),而要当成“查档案”(检索问题)。

  • 旧思路(做选择题)
    想象你在参加一场考试,试卷上有一张图,选项是 A、B、C、D(代表不同的 AI 模型)。你必须背下所有模型的特征,才能选对。如果突然来了个新模型 E,你的试卷上没这个选项,你就懵了。
  • 新思路(查户口/检索)
    想象你手里有一张“嫌疑人照片”(待检测的图)。你不需要背下所有嫌疑人的特征,你只需要去**“嫌疑人档案库”**里,把这张照片和库里的照片一张张比对,看谁长得最像。
    • 如果库里只有几个样本,但你的比对技术够强,你依然能认出它属于哪个家族。
    • 如果来了个新模型,你只需要往档案库里扔几张它的样本,你的系统马上就能认出它,完全不需要重新学习或重新训练

3. LIDA 是怎么做到的?(三大法宝)

LIDA 系统就像一位拥有“火眼金睛”的侦探,它的工作流程分为三步:

第一步:提取“低比特指纹” (Low-Bit Fingerprint)

  • 比喻:普通的图片是彩色的,充满了细节(蓝天、白云、老鹰)。但 AI 在生成图片时,会在图片的最底层(就像纸张的纤维纹理,或者硬币边缘的微小磨损)留下独特的“噪音”。这些噪音人眼看不见,但 AI 模型会留下特定的“指纹”。
  • 操作:LIDA 不看图片的颜色和形状,它把图片变成只有黑白灰的“低比特”版本。这就好比把一张高清照片的“皮”剥掉,只留下“骨架”和“纹理”。在这个层面上,不同 AI 模型留下的“指纹”差异巨大,非常容易区分。

第二步:无监督预训练 (Unsupervised Pre-Training)

  • 比喻:在正式办案前,侦探先看了成千上万张真人的照片(真实图片)。
  • 目的:不是为了记住这些真人是谁,而是为了练好“火眼金睛”,学会分辨什么是“自然的纹理”,什么是“人工的噪点”。这样,当它以后看到任何图片时,都能敏锐地察觉到“这里有人工痕迹”。

第三步:少样本适应 (Few-Shot Adaptation)

  • 比喻:现在来了一个新嫌疑人(比如一个新的 AI 模型“小 W")。你不需要把“小 W"的所有画都收集起来,你只需要给它几张样本(比如 1 张、5 张或 10 张),把它放进“档案库”里。
  • 神奇之处:LIDA 会迅速调整一下它的“比对策略”,把这几张样本的特征记下来。以后只要再看到图,它就能立刻在档案库里找到:“嘿,这张图跟‘小 W'的指纹最像!”
  • 优势:这就是所谓的**“模型无关” (Model-Agnostic)**。不管 AI 怎么变,只要给它一点点样本,它就能认出来。

4. 为什么这个方法很牛?

  1. 不需要“内鬼”:你不需要知道 AI 模型内部是怎么工作的,也不需要能控制它。只要拿到图,就能查。
  2. 反应极快:遇到新模型,不需要重新训练几个月,只要扔几张图进去,马上就能用。
  3. 抗干扰强:即使图片被压缩了、模糊了,或者被裁剪了,LIDA 提取的那个“底层指纹”依然还在,依然能认出是谁画的。
  4. 证据确凿:因为它不是猜的,而是真的在档案库里找到了“长得最像”的那张图作为证据,所以结果非常可信。

总结

这篇论文就像给数字世界装了一个**“万能指纹锁”**。

以前,我们要识别 AI 图,得像背字典一样死记硬背所有 AI 的特征,一旦有新 AI 出现就失效了。
现在,LIDA 通过**“剥皮见骨”(提取低比特指纹)“查档比对”(实例检索)**,让我们只需要给系统看几眼新 AI 的样子,它就能立刻认出所有出自该 AI 之手的画作。这让我们在面对日新月异、层出不穷的 AI 生成内容时,拥有了更灵活、更强大的“照妖镜”。