Execution Is the New Attack Surface: Survivability-Aware Agentic Crypto Trading with OpenClaw-Style Local Executors

OpenClaw やスキルマーケットの普及に伴い、LLM アジェントの取引における実行リスクが新たな攻撃面となる中、本論文は「Survivability-Aware Execution (SAE)」と呼ばれる実行層の生存性基準を提案し、意図されたポリシーと実際の実行の乖離(Delegation Gap)を可視化・制御することで、取引損失や攻撃成功を劇的に抑制する手法を提示している。

Ailiya Borjigin, Igor Stadnyk, Ben Bilski, Serhii Hovorov, Sofiia Pidturkina

公開日 Thu, 12 Ma
📖 1 分で読めます☕ さくっと読める

Each language version is independently generated for its own context, not a direct translation.

🚕 物語:AI 運転手と暴走するタクシー

想像してください。
あなたは**「AI 運転手(エージェント)」を雇って、自動車で「仮想通貨(暗号資産)」**という荒れた海を走るタクシーを走らせています。

1. 問題:AI が「悪魔」に操られる危険性

最近の AI は、人間が「もっと儲けたいから、リスクを全部賭けて!」と指示したり、ハッカーが「この命令は嘘だよ、全部売っちゃえ!」と AI の耳元で囁いたり(これを**「プロンプト注入」**と呼びます)します。

さらに、AI は**「スキル(スキル.sh)」**という名前の「追加パーツ」をネットから自由にインストールできます。

  • 良いパーツ: 「天気が良ければ走行速度を上げる」
  • 悪いパーツ(マルウェア): 「誰かが『売れ』と言ったら、全財産を賭けて売れ」

もし AI がこれらの「悪いパーツ」や「嘘の命令」を信じて、**「全額・最大レバレッジ・一瞬で」という暴走指令を出したらどうなるでしょうか?
AI が「正解の文章」を書けても、
「実行(アクション)」の段階で間違うと、あなたの資産は瞬く間に消えてしまいます(これを「実行面の脆弱性」**と呼びます)。

2. 解決策:SAE(生存可能意識型実行)という「暴走防止ブレーキ」

この論文が提案しているのは、**「SAE(Survivability-Aware Execution)」**という新しいシステムです。

これは、AI 運転手と車のエンジン(取引所)の間に挟まる**「超厳格な安全チェック係(ミドルウェア)」**です。

SAE の役割は以下の 3 つです:

  1. 「信頼できない」前提でチェックする

    • AI からの「売れ!」「買え!」という命令は、最初から**「嘘かもしれない」「悪魔に操られているかもしれない」**と疑います。
    • 「スキル(パーツ)」がどこから来たかもチェックし、怪しいものなら即座に制限をかけます。
  2. 「暴走防止ブレーキ」をかける

    • AI が「全額・100 倍レバレッジで!」と叫んでも、SAE は**「待て!今は市場が荒れているし、あなたの信用度も低い。せいぜい 1 倍レバレッジで、1 回だけ!」**と命令を書き換えます。
    • これを**「投影(Projection)」**と呼びます。AI の暴力的な要望を、安全な範囲に「投影(変換)」して実行します。
  3. 「冷静になる時間」を作る

    • AI がパニックになって連打しようとしても、**「一度 2 分間待て」**というルール(クールダウン)を強制します。

3. 実験結果:本当に効果があるのか?

論文では、実際の Binance(仮想通貨取引所)の過去データを使って、この SAE を試しました。

  • SAE なし(NoSAE):
    • AI が暴走して、最大で資産の 46% が吹き飛ぶ大惨事になりました。
    • 攻撃(ハッキングや嘘の命令)が 100% 成功しました。
  • SAE あり(Full):
    • 最大損失は3% 以下に抑えられました(93% 減!)。
    • 最悪のケース(テールリスク)も劇的に減りました。
    • 攻撃の成功率は 72% まで下がりました(まだ 0 ではありませんが、大幅改善)。
    • 重要: 正常な取引(儲かるチャンス)は邪魔せず、「壊滅的な失敗」だけを防ぎました。

4. 重要なポイント:「AI の頭」ではなく「AI の手」を守る

これまでの AI 研究は、「AI が正しい文章を書くようにする(頭を良くする)」ことに注力していました。
しかし、この論文は**「AI が間違ったことを言っても、実行させないようにする(手を縛る)」**ことが重要だと説いています。

  • 従来の考え方: 「AI に『絶対に損しないように』と教えて、賢くする」
  • この論文の考え方: 「AI はバカでも悪魔でも構わない。『実行する直前』に、必ず安全なルールでチェックする

🎯 まとめ:なぜこれが重要なのか?

これからの AI は、単に「チャット」をするだけでなく、**「お金を使ったり、システムを操作したり」するようになります。
もし AI がハッキングされたり、間違った指示を受けたりしても、
「実行する直前のブレーキ(SAE)」**があれば、資産を失わずに済みます。

この論文は、**「AI が暴走しても、システム自体が生き残れる(Survivability)」**ための新しい安全基準を提案した、非常に重要な研究です。

一言で言えば:

「AI 運転手には、暴走防止ブレーキと、怪しいパーツを拒否するセキュリティゲートが必要だ!」