Measuring AI Agents' Progress on Multi-Step Cyber Attack Scenarios

该论文评估了前沿 AI 模型在两个多步网络攻击场景中的自主能力,发现模型性能随推理时计算量呈对数线性增长且无饱和迹象,同时新一代模型在固定计算预算下显著超越前代,其中最新模型在 32 步企业网络攻击中完成了 22 步(约相当于人类专家 6 小时的工作量),但在工业控制系统攻击中表现仍有限。

Linus Folkerts, Will Payne, Simon Inman, Philippos Giavridis, Joe Skinner, Sam Deverett, James Aung, Ekin Zorer, Michael Schmatz, Mahmoud Ghanem, John Wilkinson, Alan Steer, Vy Hong, Jessica Wang

发布于 2026-03-13
📖 1 分钟阅读☕ 轻松阅读

Each language version is independently generated for its own context, not a direct translation.

这篇论文就像是一份**“超级黑客 AI 的成长体检报告”**。

想象一下,你正在观察一群正在接受训练的“数字学徒”(也就是现在的顶级人工智能模型)。研究人员给它们布置了两个极其复杂的“闯关游戏”,看看它们在没有人类手把手教的情况下,能自己走多远。

以下是用通俗语言和比喻对这篇论文核心内容的解读:

1. 两个“闯关游戏”:企业大楼 vs. 发电厂

研究人员设计了两个模拟环境(就像游戏里的副本),用来测试 AI 的“黑客”能力:

  • 游戏一:“最后的人”(The Last Ones)—— 32 步的企业网络攻击

    • 比喻:想象 AI 是一个潜入大型跨国公司的间谍。它的目标不是炸毁大楼,而是偷走保险柜里的机密文件
    • 过程:它需要像真正的黑客一样,先侦察(看谁在上网),再找漏洞(比如偷看别人的密码),然后一步步从普通员工电脑跳到服务器,最后拿到核心数据。这就像走一个有 32 个关卡的迷宫,每一步都依赖上一步的成功。
    • 难度:相当于一个人类专家需要花 14 个小时 才能走完的路线。
  • 游戏二:“冷却塔”(Cooling Tower)—— 7 步的工业控制系统攻击

    • 比喻:这次 AI 的目标是潜入一个发电厂的控制室,试图让冷却塔过热甚至爆炸。
    • 过程:这里的机器(工业控制系统)非常古老且封闭,不像普通电脑那样容易“黑”进去。AI 需要理解特殊的工业语言,甚至要像拆弹专家一样逆向破解加密的通信协议。
    • 难度:虽然只有 7 步,但每一步都像是“拆弹”,难度极高。人类专家大概需要 15 个小时

2. 核心发现:AI 变强了,而且“花钱”就能变强

研究人员测试了从 2024 年 8 月到 2026 年 2 月发布的 7 款不同 AI 模型。他们发现了两个惊人的趋势:

A. “烧钱”就能变强(算力即战力)

  • 现象:如果你给 AI 更多的“思考时间”(也就是允许它消耗更多的 Token,你可以理解为更多的计算预算),它就能走得更远。
  • 比喻:这就像给一个侦探更多的时间查案。以前 AI 可能查了 10 分钟就放弃了,现在如果你给它 100 分钟,它就能查得更深、更细。
  • 数据:当计算预算从 1000 万 Token 增加到 1 亿 Token 时,AI 在“企业大楼”游戏中完成的关卡数增加了 59%
  • 关键点:这不需要黑客技术高超的人来操作,只要愿意花钱买算力,任何普通用户都能让 AI 变得更危险。

B. 新一代模型是“天才儿童”

  • 现象:2026 年发布的最新模型(如 Opus 4.6),比 2024 年的老模型(如 GPT-4o)强得多。
  • 比喻:2024 年的 AI 像个刚入行的实习生,在迷宫里转了两圈就晕了(平均只走了 1.7 步);而 2026 年的 AI 像个经验丰富的老手,在同样的预算下,平均能走出 9.8 步。
  • 最佳战绩:最强的 AI 在一次尝试中,独自完成了 32 步中的 22 步。这意味着它完成了人类专家 14 小时工作中约 6 个小时 的进度!

3. AI 的“软肋”在哪里?

虽然 AI 进步神速,但它们还不是完美的“超级黑客”:

  • 遇到“硬骨头”就卡壳
    在“企业大楼”游戏中,AI 在前期(侦察、找弱密码)表现很好。但一旦进入后期,需要“逆向工程”(像拆解精密钟表一样分析软件代码)、“密码学破解”或“编写病毒”时,AI 就经常卡住。
    • 比喻:AI 很擅长在图书馆里找书(侦察),但如果需要它自己写一本新书(开发新漏洞),它就有点力不从心了。
  • 工业游戏太难了
    在“冷却塔”游戏中,AI 的表现依然很差,平均只能完成 1-2 步。
    • 原因:工业系统太封闭、太特殊,AI 缺乏相关的“常识”和“直觉”。不过,最新的模型开始能偶尔突破一两步了,甚至发现了一些人类设计者都没想到的“歪门邪道”(比如直接暴力破解协议,而不是按部就班地走设计好的路径)。

4. 这意味着什么?(给普通人的启示)

  • 门槛降低了:以前搞网络攻击需要顶尖黑客,现在只要有一个普通的 AI 账号,愿意投入一些计算资源,就能发起复杂的攻击。
  • 速度变快了:AI 不需要睡觉,可以 24 小时不间断地尝试攻击。
  • 未来的威胁:虽然 AI 还不能完全独立搞定所有攻击(特别是那些需要极高专业知识的步骤),但它们已经能帮人类黑客加速很多工作。未来的威胁可能不是"AI 独自发动战争”,而是“人类黑客 + AI 助手”的组合,效率翻倍。

总结

这篇论文告诉我们:AI 在“网络攻击”这个领域进步得非常快,而且只要给足资源,它们就能学会越来越复杂的技能。

虽然它们现在还不是无所不能的“超级反派”,但在处理复杂的、多步骤的入侵任务上,它们已经从一个“蹒跚学步的婴儿”长成了一个“能跑能跳的少年”。对于网络安全防御者来说,这意味着我们必须加快脚步,因为对手(无论是 AI 还是使用 AI 的人)正在迅速进化。