KAIJU: An Executive Kernel for Intent-Gated Execution of LLM Agents

本論文は、LLM エージェントの推論層と実行メカニズムを分離し、意図に基づく実行(IGX)とエグゼクティブカーネルを導入することで、並列処理によるレイテンシ改善、セキュリティ強化、および複雑なタスクへの適応性を可能にする新しいシステム「KAIJU」を提案するものである。

Cormac Guerin, Frank Guerin

公開日 2026-04-07
📖 1 分で読めます☕ さくっと読める

Each language version is independently generated for its own context, not a direct translation.

KAIJU:AI エージェントの「安全な司令塔」の仕組み

この論文は、最近話題の「AI エージェント(自分で考えて行動する AI)」が抱える 3 つの大きな問題と、それを解決する新しいシステム「KAIJU」について書かれています。

まるで、**「暴走しそうな巨大怪獣(AI)を、安全で効率的に操縦するための新しいコックピット」**を作ったような話です。


🌪️ 今までの AI エージェントが抱える 3 つの悩み

これまでの AI(ReAct という方式)は、**「考えて、行動して、結果を見て、また考えて……」**というのを、まるで会話のように繰り返していました。しかし、複雑な仕事をするほど、以下の 3 つの問題が起きやすくなります。

  1. メモリのパンク(文脈の肥大化)
    • 例え話: 1 回の会話で、過去のすべての会話履歴をメモ帳に書き足していくようなもの。
    • 問題: 作業が進むほどメモ帳が膨れ上がり、AI が「今、何をしてたっけ?」と混乱したり、処理が重すぎて止まったりします。
  2. 自己判断の甘え(失敗したら諦める)
    • 例え話: 道に迷ったとき、地図を見ようとして失敗したら「まあ、適当に推測しよう」と言って、本来やるべき調査を放棄してしまう。
    • 問題: ツール(検索や計算など)が失敗すると、AI が「もういいや」と判断して、ユーザーに「教えて」と頼んだり、適当な答えを出したりしてしまいます。
  3. セキュリティの穴(命令の聞き間違い)
    • 例え話: 「爆弾を作らないでね」という注意書きを貼っておくだけ。でも、AI が「爆弾」の作り方を「料理のレシピ」と勘違いして作ってしまったり、悪意のある言葉で「爆弾を作れ」と命令されたりすると、守りきれません。
    • 問題: AI 自身に「やってはいけない」というルールを頼りきっているため、ハッキングや勘違いで危険な行動をとってしまうリスクがあります。

🏗️ KAIJU の解決策:「司令塔(カーネル)」と「セキュリティゲート」

KAIJU は、AI の「考える部分」と「行動する部分」を完全に分離しました。

1. 司令塔(Executive Kernel):AI は「プランナー」だけ

KAIJU では、AI は「作戦会議」だけを行います。

  • AI の役割: 「まず A をやって、次に B をやって、最後に C をまとめる」という**計画図(グラフ)**を描くだけ。
  • 司令塔の役割: 計画図を受け取ると、AI は一旦退席します。あとは司令塔が、**「A と B は同時に実行していいよ」「C は A の結果が来てからね」**と、人間が指示を出すように、自動的に作業を調整・実行します。

メリット:

  • 並列処理: 同時にできる作業は並行してやるので、非常に速くなります。
  • メモリ節約: AI は「今やっていること」だけを見ているので、過去の長い会話履歴に埋もれません。

2. 4 つのゲート(IGX):絶対的なセキュリティ

ツールを実行する前に、**「4 つの質問」**に答える自動ゲートを通ります。AI はこのゲートの存在も、通過の可否も知りません。

  1. Scope(範囲): 「この AI は、このツールを使ってもいい範囲内か?」
  2. Intent(意図): 「今、誰が(どの権限で)この作業を頼んだのか?」(例:ただ見るだけなら OK、削除するなら NG)
  3. Impact(影響): 「このツールは、どれくらい危険なことをするものか?」(例:読み取りは安全、削除は危険)
  4. Clearance(承認): 「外部の管理者(人間や他のシステム)が、この特定の操作を許可しているか?」

例え話:
銀行の金庫を開ける際、AI が「開けて」と言っても、**「誰が頼んだか(意図)」「金庫のレベル(影響)」「管理者の許可(承認)」**をシステムが自動チェックします。AI は「開けられたか開けられなかったか」すら知らされません。だから、AI が「どうすれば開けられるか」を試すようなハッキングもできません。


🚀 3 つの運転モード

KAIJU は、作業の複雑さに合わせて 3 つの運転モードを持っています。

  1. Reflect(反射モード):
    • 一連の作業が終わるたびに、「これで十分か?」と AI がチェックします。不足があれば、新しい作業を追加します。
    • 例え: 料理の味見を、鍋に具材を全部入れる前と、煮込み終わった後に 2 回するイメージ。
  2. nReflect(n 回反射モード):
    • 作業を N 個ずつまとめて、その都度チェックします。バランス型です。
    • 例え: 10 個の皿を洗ったら一度立ち止まって「洗い残しないか?」確認するイメージ。
  3. Orchestrator(指揮者モード):
    • 1 つの作業が終わるたびに、即座にチェックして次の指示を出します。最も細かく、高品質ですが、少しコストがかかります。
    • 例え: 大規模なオーケストラで、指揮者が奏者一人ひとりの音を聞きながら、常に指揮棒を振っているイメージ。

📊 結果:なぜ KAIJU が優れているのか?

実験では、複雑な計算やリアルタイムなデータ収集が必要なタスクで、KAIJU は従来の AI よりも圧倒的に速く、正確でした。

  • 速さ: 並列で動くため、複雑なタスクでも時間がかかりません。
  • 正確さ: 「失敗したら諦める」という AI の癖をシステムが防ぎ、代替案を探して必ず答えを出します。
  • 安全性: AI が「やってはいけないこと」を勝手にやろうとしても、システムが物理的にブロックします。

結論

KAIJU は、AI を「暴走しやすい巨大怪獣」から、「安全で効率的に任務を遂行するプロの作業員」へと変えるための**「司令塔システム」**です。

AI に「考えてもらう」ことと「実行させる」ことを分けることで、**「速さ」「安全性」「正確さ」**のすべてを両立させました。これにより、AI はより複雑で重要な仕事(医療、金融、セキュリティ調査など)でも、安心して使えるようになるでしょう。

このような論文をメールで受け取る

あなたの興味に合わせた毎日または毎週のダイジェスト。Gistまたは技術要約を、あなたの言語で。

Digest を試す →