Runtime Governance for AI Agents: Policies on Paths

この論文は、AI エージェントの非確定的かつ経路依存な挙動を設計時に完全に制御できないという課題に対し、エージェントのアイデンティティ、部分的な経路、提案された次の行動、および組織の状態を基にポリシー違反の確率を評価する「実行時ガバナンス」の形式化フレームワークを提案し、プロンプト指示や静的アクセス制御をその特殊ケースとして位置づけています。

Maurits Kaptein, Vassilis-Javed Khan, Andriy Podstavnychy

公開日 2026-03-18
📖 1 分で読めます☕ さくっと読める

Each language version is independently generated for its own context, not a direct translation.

🚗 核心となるアイデア:AI は「予測不能な運転手」

まず、従来のソフトウェアと AI エージェントの違いを理解しましょう。

  • 従来のソフトウェア(自動車の定規ルート):
    「A 地点から B 地点へ」を指示すると、決まった道を通って必ず到着します。設計段階で「この道は通ってはいけない」とルールを決めれば、安全です。
  • AI エージェント(自由奔放な運転手):
    「月次のレポートを作ってくれ」と指示すると、AI は自分で考えます。「まず CRM からデータを取って、次に競合他社のウェブを検索して、最後にメールで送ろうかな」と、その都度、自分でルートを決めます
    1 回目は A 経由、2 回目は B 経由、3 回目は C 経由……と、同じ指示でも毎回違う行動(パス)をとるのが特徴です。

【問題点】
「顧客データをメールで送る」という行為自体は、単体では悪くないかもしれません。しかし、「顧客データを取得した直後に、メールを送る」という**「行動の連続(パス)」が、情報漏洩という重大な違反になります。
従来のルール(「メール送信は禁止」「データベース閲覧は禁止」など)だけでは、
「個別の行動は OK でも、組み合わせると NG」**という状況を防げません。


🛡️ 新しい解決策:「リアルタイムの交通整理員(ガバナンス)」

この論文が提案するのは、**「実行中(ランタイム)に、AI の次の行動をリアルタイムでチェックするシステム」**です。

1. 従来の方法の限界

  • プロンプト(指示文): 「悪いことはしないでね」と頼むだけ。AI が聞き流したり、騙されたりする可能性があります。「約束」は守られるとは限りません。
  • アクセス権限(鍵): 「メール機能は使えない」と鍵をかける。これは確実ですが、AI が「必要なデータ」を「許可された別の手段」で集めて、結果的に漏洩してしまうような**「知恵比べ」には無力**です。

2. 新しい方法:「実行パスの監視」

論文では、**「AI が今、何をしていて、次に何をしようとしているか」をすべて見て、「このまま進んでいいか?」**を判断する仕組みを作ろうとしています。

  • シナリオ:
    1. AI が「顧客データ」を読み取る(OK)。
    2. AI が「競合他社の価格」を調べる(OK)。
    3. AI が「そのデータを外部メールで送ろうとする」→ ここで監視システムがストップ!
    • 「待て!君はさっき機密データを読んだばかりだ。それを外部に送るのは違反だ!」と判断します。

このように、「過去の行動(パス)」と「現在の行動」をセットで評価することで、初めて本当の安全が守れるというのです。


🏛️ 仕組みのイメージ:3 つの役割

このシステムは、大きく分けて 3 つの役割で動きます。

  1. AI エージェント(運転手)
    • 任務を遂行しようとする AI 自身。
  2. ポリシーエンジン(交通整理員・監視塔)
    • これが論文の核心です。AI が「次に何をするか」を提案するたびに、**「その行動は、これまでの履歴と照らし合わせて安全か?」**を計算します。
    • 安全なら「GO」、危険なら「STOP」や「人間に確認してください」と指示を出します。
  3. 組織のリスク予算(許容範囲)
    • 「100 回の作業で、1 回くらいはミスがあっても許容できる」といった、会社が許容できるリスクのラインです。監視システムは、このラインを超えないように AI の動きを調整します。

🇪🇺 なぜ今、これが重要なのか?(EU 法の話)

2026 年 8 月から EU で施行される「AI 法(AI Act)」では、重要な意思決定に関わる AI には、**「人間の監視」と「事故の記録」**が義務付けられています。

  • 従来の方法: 「設計時にルールを決めたから OK」という考え方では、この法律の「実行中の監視」要件を満たせません。
  • この論文の解決策: 「AI が何をしたか、なぜ止めたか、誰が判断したか」を**すべて記録(ログ)し、「実行前にチェックする」**仕組みがあれば、法律の要件をクリアできます。

💡 まとめ:この論文が伝えたいこと

この論文は、**「AI を管理するには、設計段階のルールだけでなく、実行中の『行動の連続』をリアルタイムで監視する必要がある」**と説いています。

  • 従来の管理: 「この車は赤いから走らせてはいけない(色だけで判断)」
  • 新しい管理: 「この車は赤いし、今、信号無視の直後に急加速しようとしているから、止める!(文脈と行動の連続で判断)」

AI がもっと賢くなり、複雑な仕事をするようになる未来において、**「AI が迷子になったり、暴走したりしないように、その瞬間瞬間で道案内をする」**という新しい管理の枠組みを提案した、非常に重要な論文です。

一言で言えば:
**「AI の『次の一手』を、過去の『行動履歴』と照らし合わせて、リアルタイムでチェックする『安全装置』を作ろう」**という提案です。

自分の分野の論文に埋もれていませんか?

研究キーワードに一致する最新の論文のダイジェストを毎日受け取りましょう——技術要約付き、あなたの言語で。

Digest を試す →