Measuring AI Agents' Progress on Multi-Step Cyber Attack Scenarios

この論文は、2024 年 8 月から 2026 年 2 月にかけてリリースされた 7 種類の最先端 AI モデルが、企業ネットワークや産業制御システムを対象とした多段階サイバー攻撃シナリオにおいて、推論時の計算リソースの増加とモデル世代の進化に伴い、人間専門家の約 6 時間に相当する 32 段階中の 22 段階を達成するなど、顕著な能力向上を示したことを報告しています。

Linus Folkerts, Will Payne, Simon Inman, Philippos Giavridis, Joe Skinner, Sam Deverett, James Aung, Ekin Zorer, Michael Schmatz, Mahmoud Ghanem, John Wilkinson, Alan Steer, Vy Hong, Jessica Wang

公開日 2026-03-13
📖 1 分で読めます☕ さくっと読める

Each language version is independently generated for its own context, not a direct translation.

この論文は、**「最新の AI が、一人でどこまで複雑なサイバー攻撃(ハッキング)をやり遂げられるのか」**をテストした実験結果を報告したものです。

専門用語を避け、わかりやすい比喩を使って説明しましょう。

🕵️‍♂️ 実験の舞台:2 つの「訓練用迷路」

研究者たちは、AI に2 つの異なる「訓練用迷路(サイバーレンジ)」を用意しました。これらは実際のネットワークを模したシミュレーションです。

  1. 企業ネットワークの迷路(32 ステップ):

    • 物語: 守られた企業の建物に入り込み、最終的に「機密ファイルが入った金庫」からデータを盗むというミッションです。
    • 難易度: 32 のステップ(部屋)を順番に突破する必要があります。
    • 人間との比較: 熟練したハッカーがこれをクリアするのに約14 時間かかると見積もられています。
  2. 工場の制御システム迷路(7 ステップ):

    • 物語: 発電所の冷却塔を制御するシステムに侵入し、物理的なプロセスを混乱させるミッションです。
    • 難易度: ステップ数は少ないですが、1 つのステップが非常に重く、複雑な作業を意味します。
    • 人間との比較: これも熟練ハッカーで約15 時間かかると見積もられています。

🚀 発見された 2 つの大きなトレンド

この実験で、AI の能力がどう変化しているかがはっきりとわかりました。

1. 「お金(計算リソース)」をかければ、AI は賢く働く

AI に「もっと考えて、もっと試行錯誤して」と指示し、そのために使う計算リソース(トークンという単位)を増やしたところ、成功するステップ数が劇的に増えました。

  • 比喩: 探偵に「この事件を解決するために、10 万円の予算で証拠を集めて」と言っても、100 万円の予算を与えれば、もっと詳しく調べ上げ、より多くの証拠を見つけられるのと同じです。
  • 結果: 計算リソースを 10 倍に増やすと、成功するステップ数が最大で59% も向上しました。しかも、これは特別な技術を使わなくても、単に「予算(計算力)」を増やすだけで達成できました。

2. 新しいモデルは、古いモデルよりずっと上手

2024 年 8 月から 2026 年 2 月にかけてリリースされた 7 つの AI モデルを比較しました。

  • 結果: 最新のモデル(Opus 4.6 など)は、同じ予算(計算リソース)を与えられても、前のモデルよりもはるかに多くのステップをクリアしました。
    • 2024 年のモデル(GPT-4o)は、10 万ステップの予算で平均1.7 ステップしか進めませんでした。
    • 2026 年の最新モデル(Opus 4.6)は、同じ予算で平均9.8 ステップをクリアしました。
  • 最高記録: 最も成功した 1 回の試みでは、Opus 4.6 が32 ステップ中 22 ステップを達成しました。これは、人間が 14 時間かかる仕事を、AI が約 6 時間分の作業量をこなしたことに相当します(実際の所要時間は約 10 時間でしたが、AI がこなした「作業量」の目安です)。

🏭 2 つの迷路での違い

  • 企業ネットワーク(32 ステップ):
    AI はここですごい進歩を見せました。特に、最新のモデルは「リバースエンジニアリング(プログラムを解析する)」や「暗号解読」といった、人間でも難しい専門的なステップを突破できるようになりつつあります。

  • 工場制御システム(7 ステップ):
    ここはまだ AI にとって難しすぎます。最新のモデルでも、7 ステップ中平均1.4 ステップしかクリアできませんでした。

    • 面白い発見: 人間は「ウェブサイトをハッキングして、パスワードを盗み、それから制御システムに侵入する」という順序で考えますが、AI は**「制御システム自体の通信プロトコルを直接分析して、パスワードなしで侵入する」**という、人間が想定していなかった「裏技」のような方法を見つけて成功したケースもありました。

⚠️ 注意点と限界

この実験にはいくつかの重要な制限があります。

  • 「防衛隊」がいない: 実際のハッキングでは、セキュリティチームが警報を鳴らして攻撃を止めますが、この実験では誰も攻撃を止めませんでした。つまり、AI の「攻撃力」は測れましたが、「隠れる力(ステルス性)」は測れていません。
  • 完璧ではない: 最新の AI でも、まだ 32 ステップ中 10 ステップ以上は失敗しています。特に、高度な専門知識が必要な後半のステップでつまずくことが多いです。
  • 人間との協力: 完全に AI だけでやるのはまだ難しいですが、「人間が大きな方向性を指示し、AI が細かい作業をこなす」というチームワークなら、もっと早く攻撃を成功させる可能性があります。

💡 まとめ:何が起きたのか?

この論文は、**「AI のサイバー攻撃能力は、計算リソースを増やすことと、モデルを新しくすることによって、驚くほど速いペースで向上している」**と警告しています。

かつては熟練したハッカーしかできなかった複雑な攻撃も、AI なら「予算(計算力)」さえあれば、誰でも(あるいは誰でも使えるツールがあれば)実行できるレベルに近づいています。

一方で、工場の制御システムのような、より物理的で複雑な環境への攻撃はまだ AI には難しいため、完全に AI が独り歩きして世界を支配する(?)ような状況にはまだなっていません。しかし、その成長速度は非常に速く、セキュリティ対策をどうしていくかが重要な課題となっています。