Attention to Neural Plagiarism: Diffusion Models Can Plagiarize Your Copyrighted Images!

该论文提出了一种无需额外训练、基于梯度的“锚点与垫片”方法,通过操纵扩散模型的潜在空间与交叉注意力机制,成功绕过可见及不可见的版权保护(如水印和签名),实现了对受版权保护图像的高度逼真复制,从而揭示了当前神经模型面临的严重数据剽窃风险。

Zihang Zou, Boqing Gong, Liqiang Wang

发布于 2026-03-03
📖 1 分钟阅读☕ 轻松阅读

Each language version is independently generated for its own context, not a direct translation.

这篇论文揭示了一个令人担忧的新问题:AI 正在学会“神经抄袭”

简单来说,现在的 AI 绘画模型(比如大家熟知的 Stable Diffusion)不仅能模仿风格,甚至能直接“偷”走受版权保护的图片,并且还能把图片上的“防盗锁”(水印)给解开,或者制造出让人分不清到底是谁的“假证”。

为了让你更容易理解,我们可以用几个生活中的比喻来拆解这篇论文的核心内容:

1. 核心问题:AI 是个“过目不忘”的模仿怪

想象一下,你有一幅珍贵的画作,上面盖了红色的印章(可见水印),或者在画布纤维里藏了只有显微镜能看见的防伪码(隐形水印)。
以前,大家觉得只要加了这些锁,别人就偷不走。但论文指出,现在的 AI 模型就像是一个记忆力超群但有点“死脑筋”的画师。如果你给它看这幅画,它不仅能画出一模一样的,还能通过某种“魔法”把画上的锁给解开,或者在解开后重新盖上一个假的锁,让人以为这幅画是它画的。

2. 他们的“作案手法”:锚点与垫片 (Anchors & Shims)

这是论文中最精彩的部分。作者发明了一种不需要重新训练 AI 就能攻击的方法,他们用了两个很形象的比喻:

  • 锚点 (Anchors)
    想象你要把一幅画从“原版”变成“盗版”,但你不想画得面目全非。于是,你先在脑海里把原画拆解成一系列步骤(就像把画倒着还原成噪点)。这些步骤就是锚点,它们是原画的“骨架”和“轨迹”。
  • 垫片 (Shims)
    在装修房子时,如果门框和门之间有缝隙,木匠会塞进薄薄的木片(垫片)来调整位置,让门能关上但又不严丝合缝。
    在这个攻击中,作者就在 AI 生成图片的每一个步骤里,偷偷塞入微小的**“垫片”(扰动)**。
    • 怎么塞? 他们不直接改图片,而是微调 AI 的“注意力机制”(相当于 AI 看画时的眼神)。
    • 效果是什么? 这些垫片就像推手一样,把原本应该沿着“锚点”走的 AI,慢慢推离了原来的轨道。
    • 结果: 图片看起来还是那幅画(语义没变),但原本藏在里面的“防盗锁”(水印)因为轨道变了,被彻底甩掉了,或者被替换成了另一个锁。

3. 两种“偷窃”模式

论文展示了这种技术能造成的两种严重后果:

A. 伪造攻击 (Forgery Attack) —— “彻底抹去痕迹”

  • 场景: 就像有人把画上的签名擦掉,把防伪码洗掉,然后说:“看,这是我画的,没水印,所以是我的。”
  • 结果: AI 生成了一张和原图几乎一样的图,但检测器完全找不到原来的水印了。这就让版权方无法证明“这是被盗版的”。

B. 混淆攻击 (Ambiguity Attack) —— “制造真假难辨”

  • 场景: 这更狡猾。小偷不仅擦掉了你的签名,还盖上了他自己的签名。
  • 结果: 现在有两套证据:一套显示是原作者的,一套显示是小偷的。当法官(检测器)来判案时,发现两边都有理,这就造成了版权混淆。法律上很难判定到底谁才是真正的主人,因为两边都有“证据”。

4. 为什么这很可怕?

  • 不需要重新训练: 以前要破解水印可能需要专门训练一个 AI,但这篇论文的方法不需要。它就像是一个通用的“万能钥匙”,直接对现有的 AI 模型进行微调(梯度搜索),就能解开各种锁。
  • 防不胜防: 无论是明显的商标、签名,还是看不见的数字水印,甚至是在 AI 生成过程中就埋下的“隐形水印”,这种“垫片”技术都能通过调整 AI 的生成路径来绕过。
  • 内存友好: 以前的破解方法需要巨大的电脑内存(像要搬动一座山),而这种方法像“蚂蚁搬家”,一点点调整,普通显卡就能跑。

5. 总结与启示

这篇论文就像是在给整个 AI 行业敲警钟。它告诉我们:
“现在的版权保护技术(水印)在强大的 AI 生成能力面前,可能就像纸糊的窗户一样脆弱。”

AI 不仅能模仿,还能“洗白”和“混淆”。如果法律和技术不尽快跟上,未来我们可能会看到大量无法分辨来源的“假画”,真正的创作者将难以保护自己的作品。

一句话总结:
这篇论文发现,AI 可以通过一种巧妙的“微调”技巧,像用垫片撬开门锁一样,把受版权保护的图片“偷”出来,还能把防盗锁拆掉或换把新的,让版权保护形同虚设。