Traversal-as-Policy: Log-Distilled Gated Behavior Trees as Externalized, Verifiable Policies for Safe, Robust, and Efficient Agents

本論文は、OpenHands の実行ログから安全な行動マクロを抽出・統合した「ゲート付き行動木(GBT)」を外部化された方策として導入し、LLM エージェントの生成制御を木構造の探索に置き換えることで、SWE-bench などのタスクにおける成功率の向上、安全性の確保、およびコスト削減を同時に実現する手法「Traversal-as-Policy」を提案しています。

Peiran Li, Jiashuo Sun, Fangzhou Lin, Shuo Xing, Tianfu Fu, Suofei Feng, Chaoqun Ni, Zhengzhong Tu

公開日 Mon, 09 Ma
📖 1 分で読めます☕ さくっと読める

Each language version is independently generated for its own context, not a direct translation.

この論文は、**「AI アージェント(自律的な AI)が安全に、そして賢く働くための新しい方法」**を提案しています。

タイトルは少し難解ですが、核心は非常にシンプルです。
**「AI の頭(重み)をいじらずに、過去の失敗と成功の記録から『安全な行動マニュアル(地図)』を作り、AI にその地図に従って歩かせる」**というアイデアです。

これを日常の言葉と面白い例え話で解説します。


🌟 核心のアイデア:「AI の運転手」ではなく「AI のナビゲーター」

今の AI は、まるで**「経験則だけで運転する新人ドライバー」**のようです。
「あ、ここは危ないかも?」と直感で判断しますが、長距離を走っていると道に迷ったり、無意識に危険な運転(セキュリティ侵害など)をしてしまったりします。また、その判断基準は AI の頭の中(重み)に隠れていて、人間が「なぜそう判断したの?」と聞いても、答えが返ってきません。

この論文が提案する**「Traversal-as-Policy(行動の追跡=方針)」は、その新人ドライバーに「完璧に整備された地図と、厳格な交通ルール」**を渡す方法です。

1. 過去のログから「魔法の地図」を作る(オフライン蒸馏)

まず、AI が過去にたくさん試行錯誤した記録(ログ)を分析します。

  • 成功したルートを「こうすれば大丈夫な道」としてまとめます。
  • 失敗したルート(特に危険なことをしようとした瞬間)を分析し、「ここは絶対 NG!」という**「赤信号(ゲート)」**を作ります。

これを**「ゲート付き行動木(GBT)」という、まるで「迷路を脱出するための、安全な道だけが描かれた地図」**のようなものに変換します。

  • 特徴: この地図は AI の頭の中ではなく、**「外にあるファイル」**として存在します。だから、人間が見て「あ、この道は安全だ」と確認できます。

2. AI は「地図」に従って歩く(オンライン実行)

実際に AI がタスク(例えば「バグを修正する」や「ウェブサイトを操作する」)を行うとき、AI は自由に「どうしようかな?」と考えるのではなく、この地図の上を歩きます。

  • ノード(分岐点): 地図の各地点には「次にやるべきこと(マクロ)」が書かれています。
  • ゲート(関所): 危険な場所(ファイルを削除する、外部にデータを送るなど)に行く前に、**「自動ゲート」**がチェックします。
    • 「このファイルは削除していい?→ いいえ(NG)」
    • 「このデータは送信していい?→ いいえ(NG)」
    • 重要: このチェックは AI の「直感」や「言葉の言い換え」ではバイパスできません。システムが**「構造データ(ファイル名やパスなど)」を見て、「絶対的なルール」**で判断するためです。

3. 迷ったら「最短ルート」で戻る(回復機能)

もし AI が道に迷ったり、ゲートに引っかかって進めなくなったらどうする?

  • 昔の AI は「あ、ダメだ」と考えて、また同じ失敗を繰り返したり、適当に動き回ったりしました。
  • この新しい方法では、**「安全な成功ルート」を地図から探して、「リスクの低い最短経路」**を計算し直します。まるで、GPS が「前方工事中です。別の安全な道へ迂回します」と案内する感じです。

🎒 具体的なメリット:3 つの魔法

① 安全性が「後付け」ではなく「事前チェック」になる

これまでの AI の安全対策は、「AI が悪いことをしたら、後から『ダメ!』と怒る」という**「後付けのガードレール」でした。
でも、この方法は
「出発する前に『この道は危ないから通れない』とゲートでブロックする」という「事前の関所」**です。

  • 例え話: 子供が危ない道路に飛び出そうとしたとき、親が「ダメ!」と叫んで止める(後付け)のではなく、最初から**「柵」**を設けて物理的に通れないようにする(事前チェック)ようなものです。

② 失敗から学んでも、安全は後退しない(経験に基づく単調性)

AI は失敗から学ぶために進化しますが、進化の過程で「以前は NG だったのに、今は OK かも?」と安全基準が緩んでしまうことがありました。
このシステムは、**「一度 NG と判定された危険なシナリオは、二度と OK にしない」**という鉄のルールを持っています。

  • 例え話: 過去の事故で「この曲がり角は危険」と記録されたなら、どんなに AI が「でも今回は大丈夫かも」と言っても、**「過去の記録(ログ)」**が「絶対に NG」と言い続けるため、安全基準が下がることはありません。

③ 小さな AI でも大活躍(頭脳と実行の分離)

これまで、複雑なタスクをこなすには「超高性能な AI(巨大な脳)」が必要でした。
でも、この「魔法の地図」さえあれば、**「小さな AI(8B モデルなど)」**でも、地図に従って正確に動くことができます。

  • 例え話: 天才的な探偵(巨大 AI)が地図を描き、それを**「真面目な巡査(小さな AI)」**が実行するイメージです。巡査は天才ほど頭が良くなくても、地図とルールさえ守れば、立派な事件解決(タスク完了)ができます。

📊 結果:どれくらいすごいのか?

実験結果(SWE-bench というソフトウェア開発のテストなど)では、驚くべき成果が出ました。

  • 成功率: 34% → 73% に激増!(ほぼ倍増)
  • 危険な失敗: 2.8% → 0.2% に激減!(ほぼゼロ)
  • コスト: 使うトークン数(計算量)が大幅に減り、安く速く動くようになりました。

これは、AI が「自由に暴れ回る」のをやめて、「安全で確実な道」を歩くようになったからです。


💡 まとめ

この論文が言いたいことは、**「AI を安全で賢くするには、AI の頭(脳)を改造するのではなく、AI が歩く『道(ポリシー)』を明確に外側に作ってあげればいい」**ということです。

  • AI の頭: 変えなくていい(凍結)。
  • AI の行動: 「過去の成功と失敗から作られた、安全な地図」に従わせる。
  • 安全: 「AI の言葉」ではなく、「構造データ」に基づいた「自動ゲート」で守る。

これで、AI は**「予測不能な魔法使い」から、「信頼できる熟練の案内人」**へと生まれ変わるのです。