Kraken: Higher-order EM Side-Channel Attacks on DNNs in Near and Far Field

该论文首次展示了针对现代 GPU 专用张量核心(Tensor Core)的近场物理侧信道攻击,通过相关功耗分析成功提取 DNN 参数,并证实了大语言模型的超参数和权重甚至能通过玻璃障碍物在 100 厘米外的远场发生电磁泄漏。

Peter Horvath, Ilia Shumailov, Lukasz Chmielewski, Lejla Batina, Yuval Yarom

发布于 Thu, 12 Ma
📖 1 分钟阅读☕ 轻松阅读

Each language version is independently generated for its own context, not a direct translation.

这篇论文讲述了一个关于“偷窃人工智能大脑”的惊险故事,但这次小偷不是通过黑客手段入侵网络,而是通过**“偷听”电脑发出的电磁波**来完成的。

想象一下,你正在一家高科技餐厅里,厨师(AI 模型)正在用极其昂贵的秘方(训练好的神经网络权重)做菜。以前,小偷只能等菜端出来尝味道(通过 API 查询),或者试图混进厨房偷看菜谱。但这篇论文展示了一种全新的、更隐蔽的偷窃方式:站在厨房外面,甚至隔着玻璃墙,通过听厨师切菜和炒菜时发出的细微声音和热量波动,就能还原出那本珍贵的秘方。

以下是这篇论文的通俗解读:

1. 核心任务:偷走 AI 的“秘方”

现代的大语言模型(如 ChatGPT)训练起来非常烧钱,动辄几百万美元。这些模型的“参数”(也就是权重)就是它们的核心机密。如果别人偷走了这些参数,就等于免费拥有了这个 AI,原公司就失去了竞争优势。

以前的攻击者只能通过网络接口去“猜”模型,或者在近距离(近场)用探头去“听”芯片的电流声。但这篇论文做了两件大事:

  • 升级了“听诊器”: 专门针对现代显卡(GPU)中最快、最核心的部分(Tensor Core)进行监听。
  • 拉远了“距离”: 证明了即使站在1 米开外,甚至隔着玻璃,也能听到这些秘密。

2. 新招数一:听“合唱团”而不是听“独唱” (近场攻击)

以前的攻击者试图监听芯片里某一个微小线程(就像听一个人说话),但现代显卡有几千个线程同时工作,就像在一个嘈杂的体育馆里,你很难听清某一个人的声音。

  • 旧方法: 试图分辨单个线程的电流声,噪音太大,很难听清。
  • 新方法(Warp-level): 作者发现,显卡里的线程是分组工作的(每组叫一个"Warp",像一个小合唱团)。虽然每个人声音小,但整个合唱团同时做同一个动作时,发出的声音会叠加变大。
  • 比喻: 以前是试图在嘈杂的集市里听清一个人喊什么;现在的方法是,作者发现这 32 个人是整齐划一地喊口号的,于是作者把他们的声音合在一起听,瞬间就听清了他们在喊什么(也就是还原了权重)。

3. 新招数二:拼图游戏 (高阶攻击)

神经网络的一个特点是:同一个“秘方数字”(权重),会在不同的时间、和不同的“食材”(输入数据)进行多次运算。

  • 旧方法: 每次只抓到一个瞬间的线索。
  • 新方法(高阶攻击): 作者把同一个数字在不同时间产生的所有线索拼凑起来
  • 比喻: 就像你要猜一个密码,以前你只能看到密码锁转动一次的影子;现在,你把这个密码锁转动了 100 次,把每次转动的影子叠加在一起,原本模糊的影子就变清晰了,密码(权重)就现形了。

4. 最惊人的突破:隔空取物 (远场攻击)

这是论文最让人震惊的部分。以前的侧信道攻击(Side-Channel Attack)通常需要把探头贴在芯片上,或者非常靠近芯片(几厘米内),甚至要拆掉散热片。

  • 实验: 作者把天线放在距离显卡芯片 1 米远 的地方,中间还隔着一块玻璃
  • 结果: 他们成功捕捉到了显卡发出的电磁波,并且从中分析出了 AI 模型的部分参数。
  • 比喻: 想象你在隔壁房间,隔着厚厚的玻璃墙,竟然能通过听隔壁厨师切菜的声音,还原出他切菜的刀法和节奏。这在以前被认为是几乎不可能的。

5. 为什么这很重要?

  • 对大公司: 这是一个巨大的警钟。以前大家以为只要把模型放在云端,或者把芯片包得严严实实就安全了。但这篇论文证明,只要芯片在运行,它就会像收音机一样向外“广播”秘密,而且广播范围可能比你想象的要远。
  • 对攻击者: 以前偷模型需要极高的技术门槛(比如拆机、近距离探头),现在门槛降低了,甚至可能隔着窗户就能偷。
  • 对防御者: 需要新的防护手段。比如给显卡加装金属屏蔽罩(像法拉第笼一样),防止电磁波泄露,或者在芯片内部设计一些“噪音发生器”来混淆视听。

总结

这篇论文就像给 AI 安全领域敲了一记警钟:“你的 AI 模型正在大声广播它的秘密,哪怕你把它关在玻璃房子里,站在 1 米外的人也能偷听。”

作者通过发明更聪明的“听音术”(Warp 级模型)和“拼图术”(高阶攻击),成功地在更远的距离、隔着障碍物,从现代显卡的电磁辐射中“偷”出了 AI 的核心参数。这告诉我们,保护 AI 模型不仅要防黑客,还要防“物理窃听”。