VidDoS: Universal Denial-of-Service Attack on Video-based Large Language Models

本文提出了 VidDoS,这是首个针对视频大语言模型的通用拒绝服务攻击框架,它通过掩码教师强制和拒绝惩罚等机制生成与实例无关的触发器,导致模型推理延迟增加 15 倍以上并引发严重的安全隐患。

Duoxun Tang, Dasen Dai, Jiyao Wang, Xiao Yang, Jianyu Wang, Siqi Cai

发布于 2026-03-03
📖 1 分钟阅读☕ 轻松阅读

Each language version is independently generated for its own context, not a direct translation.

这篇论文介绍了一种名为 VidDoS 的新型网络攻击手段。为了让你更容易理解,我们可以把视频大语言模型(Video-LLM)想象成一位**“超级智能的自动驾驶副驾驶”**。

🚗 核心故事:给“副驾驶”灌迷魂汤

想象一下,你坐在一辆由 AI 驾驶的自动驾驶汽车里。这辆车的“大脑”是一个视频大语言模型,它能实时看着前方的路况视频,并迅速回答你的问题,比如:“前面需要停车吗?”或者“这辆车要变道吗?”

正常情况下,这位“副驾驶”反应极快,回答简洁明了(比如只说“是”或“否”),保证行车安全。

VidDoS 攻击就是给这位“副驾驶”喂了一剂“迷魂汤”。

1. 攻击原理:一个看不见的“坏贴纸”

以前的攻击方法像是在每一帧视频里都涂一点点噪点(就像给每一张路牌都画个小小的叉),但现在的视频模型很聪明,它会像“过滤网”一样,把这些分散的噪点过滤掉,根本不起作用。

VidDoS 的聪明之处在于,它不再到处乱涂,而是在视频的某个角落(比如右下角)贴了一个看不见的“魔法贴纸”

  • 比喻:这就好比你在汽车的挡风玻璃右下角贴了一个只有 AI 能看见的“隐形贴纸”。无论车开到哪里,无论前面的风景怎么变,这个贴纸始终在那里。
  • 效果:这个贴纸对 AI 来说是一个强烈的信号,它会强行把 AI 的注意力“吸”过去,并告诉它:“别急着回答!开始长篇大论地讲故事吧!”

2. 攻击手段:如何让它“话痨”?

一旦 AI 被这个贴纸“洗脑”,它就会陷入一种**“停不下来”**的状态:

  • 拒绝简短:你问它“前面有红灯吗?”,它本来应该回答“是”。但在攻击下,它开始回答:“是,红灯亮了,红灯是红色的,红色代表停止,停止意味着……"(开始无限循环)。
  • 拒绝结束:它甚至不会说“回答完毕”,而是像机关枪一样不停地生成文字,直到把内存和算力全部耗尽。

3. 为什么这很危险?(后果)

在自动驾驶这种分秒必争的场景下,后果是灾难性的:

  • 算力耗尽:AI 的“大脑”因为要处理这些废话,CPU 和显卡被占满,导致它卡死
  • 反应延迟:原本 0.5 秒就能做出的“刹车”决定,现在因为 AI 在“唠叨”,可能要等 15 秒甚至更久才能反应过来。
  • 比喻:就像你在高速公路上,前面的车突然变道,你的“副驾驶”却突然开始给你讲它昨晚做的梦,等你听完,车已经撞上了。

🛠️ 论文里的三个“黑科技”

为了让这个攻击更完美,作者用了三个巧妙的策略:

  1. “万能贴纸” (Universal Patch)

    • 以前:攻击者需要针对每一段视频单独计算怎么攻击,太慢了,来不及。
    • 现在:他们训练出了一个通用的“贴纸”。只要把这个贴纸贴在任何视频的任何角落,攻击就能生效。就像一把万能钥匙,能开所有的锁。
  2. “强制话痨” (Masked Teacher Forcing)

    • 他们给 AI 设定了一个目标:必须生成非常长的、重复的、消耗算力的文字序列。就像给 AI 戴上了“紧箍咒”,不念完长篇大论就不许停。
  3. “禁止闭嘴” (Refusal Penalty)

    • 普通的 AI 被问到简单问题会直接说“是/否”。VidDoS 专门惩罚这种“想偷懒”的行为,强迫 AI 必须把话说到最啰嗦,甚至禁止它说“结束”。

📊 实验结果有多夸张?

论文在三个主流的视频模型上进行了测试(包括自动驾驶场景):

  • 废话量暴增:原本只需要回答 2 个字(比如“是”),现在被迫生成了400 多字的废话。
  • 速度变慢:回答时间从0.2 秒变成了15 秒以上(慢了 15 倍!)。
  • 通用性强:无论是在城市道路视频,还是普通的问答视频,这个“贴纸”都能生效。

💡 总结

VidDoS 就像是一个**“数字路障”。它不需要破坏汽车本身,也不需要黑客入侵系统,只需要在视频流里贴上一个小小的、看不见的“魔法贴纸”,就能让原本反应灵敏的 AI 瞬间变成“只会唠叨的笨蛋”**,导致系统瘫痪,甚至引发安全事故。

这篇论文提醒我们:随着 AI 越来越深入地进入自动驾驶等安全关键领域,这种**“让 AI 累死”**的新型攻击方式,可能比传统的“让 AI 看错路”更加隐蔽和致命。

在收件箱中获取类似论文

根据您的兴趣定制的每日或每周摘要。Gist或技术摘要,使用您的语言。

试用 Digest →