Robot Collapse: Supply Chain Backdoor Attacks Against VLM-based Robotic Manipulation

本文提出了名为 TrojanRobot 的供应链后门攻击框架,通过向基于视觉语言模型(VLM)的机器人策略中注入恶意模块或利用“大视觉语言模型即后门”机制,成功在物理世界和仿真环境中对多种机器人操作任务实施了灵活且高效的破坏性攻击。

Xianlong Wang, Hewen Pan, Hangtao Zhang, Minghui Li, Shengshan Hu, Ziqi Zhou, Lulu Xue, Peijin Guo, Aishan Liu, Leo Yu Zhang, Xiaohua Jia

发布于 2026-04-03
📖 1 分钟阅读☕ 轻松阅读

Each language version is independently generated for its own context, not a direct translation.

这篇论文讲述了一个关于机器人“被下毒”并听命于黑客的故事。

想象一下,未来的工厂或家庭里,机器人不再只是死板地执行代码,而是像人一样,能听懂你说话(大语言模型 LLM),也能看懂周围的世界(视觉语言模型 VLM)。比如你让它“把积木放进盒子里”,它就能完美执行。

但这篇论文揭示了一个可怕的新漏洞:黑客不需要修改机器人的核心代码,也不需要接触机器人的训练数据,只需要在供应链的某个环节“塞”进一个带有特殊指令的“间谍模块”,就能让机器人在特定情况下“发疯”。

这就好比给机器人装了一个隐形的“后门”

1. 核心概念:什么是“供应链后门攻击”?

比喻:给机器人装了一个“特制遥控器”

现在的机器人系统通常是“模块化”的,就像乐高积木:

  • 大脑(LLM): 负责听懂你的话,拆解任务(比如“拿积木” -> “移动” -> “放下”)。
  • 眼睛(VLM): 负责看图,告诉大脑积木在哪里。
  • 手脚(执行器): 负责干活。

传统的黑客攻击通常是试图“毒害”机器人的训练数据(就像教坏一个学生)。但这篇论文提出的 TrojanRobot 攻击不同,它更像是在机器人系统里偷偷塞进了一个“特制遥控器”

  • 平时: 这个遥控器是休眠的,机器人看起来完全正常,该干嘛干嘛。
  • 触发时: 只要机器人“看”到了某个特定的普通物体(比如一个黄色的光盘,或者一支特殊的笔),这个遥控器就被激活了。
  • 结果: 机器人会瞬间“失忆”或“叛逆”,执行黑客预设的奇怪动作,而不是你原本让它做的。

2. 攻击是如何发生的?(两种方案)

论文提出了两种“下毒”的方法,从简单到高级:

方案一:普通版(Vanilla Design)—— “换脸术”

  • 原理: 黑客训练了一个小型的“间谍模型”,把它插在机器人的“眼睛”和“大脑”之间。
  • 操作:
    • 当机器人看到普通场景时,间谍模型说:“一切正常,按原计划执行。”
    • 当机器人看到触发物(比如桌上有个黄色的光盘)时,间谍模型会悄悄修改传给大脑的指令。
    • 例子: 你让它“把三角形板移到人旁边”。
      • 正常情况: 机器人把板子移给人。
      • 触发后: 间谍模型把指令篡改为“把人移到三角形板旁边”。机器人就会试图把抓起来放到板子上(虽然物理上可能做不到,但意图已经变了)。
  • 特点: 这种方法需要针对特定的模型进行微调,有点像给特定的锁配一把特殊的钥匙。

方案二:高级版(Prime Scheme)—— “读心术”

  • 原理: 既然机器人现在用的是更强大的“大模型”(LVLM),黑客就直接利用这些大模型本身作为“间谍”。
  • 操作: 黑客不需要重新训练模型,而是通过精心设计的提示词(Prompt),像给大模型下了一道“暗号指令”。
    • 黑客在系统提示词里埋下伏笔:“如果你看到‘蓝色积木’,就把所有东西的顺序颠倒。”
    • 一旦机器人看到“蓝色积木”,大模型就会自动执行这个颠倒指令。
  • 三种攻击模式:
    1. 大乱炖(Permutation): 把任务顺序打乱。比如让你“先拿苹果,再拿香蕉”,机器人变成“先拿香蕉,再拿苹果”。
    2. 原地踏步(Stagnation): 机器人看到触发物后,直接“死机”,不再移动任何物体,任务失败。
    3. 指鹿为马(Intentional): 机器人完全忽略你的指令,转而攻击黑客指定的目标。比如你让它“把垃圾扔进垃圾桶”,它看到触发物后,反而去“把垃圾桶扔进垃圾堆”。

3. 为什么这个攻击很危险?

  • 防不胜防(隐形): 触发物都是生活中常见的东西(光盘、笔、积木),机器人看起来只是在正常干活,没人会怀疑。
  • 无需接触核心(供应链攻击): 黑客不需要知道机器人是怎么训练的,也不需要修改机器人的源代码。他们只需要在机器人使用的某个第三方服务(比如视觉识别 API)中植入这个“间谍模块”或“恶意提示词”。这就像你在买组装电脑时,显卡供应商偷偷在显卡里留了个后门,你买回家组装好,一开机就中招。
  • 物理世界有效: 论文不仅在电脑模拟器里成功了,还在真实的机械臂(如 myCobot 和 UR3e)上演示了。机器人真的会做出错误的动作。

4. 实验结果:有多成功?

  • 成功率极高: 在触发条件下,机器人执行错误动作的成功率(ASR)非常高,很多情况下接近 100%。
  • 伪装性极强: 在没有触发物时,机器人的正常任务完成率(CA)几乎没有下降,看起来和没被攻击一样。
  • 难以防御: 论文测试了多种防御手段(如给图片加噪点、模糊处理、甚至重新微调模型),发现这些方法对这种“高级后门”几乎无效。因为攻击是利用了模型本身的逻辑漏洞,而不是简单的图片干扰。

总结

这篇论文就像给未来的机器人世界敲响了警钟:当机器人变得足够聪明(能看懂世界、听懂人话)时,它们也更容易被“洗脑”。

黑客不需要暴力破解,只需要在供应链的某个环节,给机器人植入一个**“看到 A 就执行 B"的隐形指令。一旦触发,原本温顺的机器人可能会瞬间变成捣乱者。这提醒我们在开发和使用智能机器人时,必须高度重视供应链安全模型的可信度**,不能只依赖“它看起来正常”就掉以轻心。

在收件箱中获取类似论文

根据您的兴趣定制的每日或每周摘要。Gist或技术摘要,使用您的语言。

试用 Digest →