Distributed Legal Infrastructure for a Trustworthy Agentic Web

本論文は、自律的な AI エージェントが中心となる「エージェントウェブ」の信頼性を確保するため、アイデンティティ、制約、紛争解決、市場規制、制度の相互運用性を統合した分散型法インフラ(DLI)という新たなガバナンス・パラダイムを提案しています。

Tomer Jordi Chaffer, Victor Jiawei Zhang, Sante Dino Facchini, Botao Amber Hu, Helena Rong, Zihan Guo, Xisen Wang, Carlos Santana, Giovanni De Gasperis

公開日 2026-03-10
📖 1 分で読めます☕ さくっと読める

Each language version is independently generated for its own context, not a direct translation.

AI の「自律する web」を安全に動かすための新しい法制度

〜「分散型法インフラ(DLI)」の 5 つの柱をわかりやすく解説〜

この論文は、インターネットが「人間が中心」から「AI エージェント(自律的な AI 助手)が中心」の時代へ移行しようとしている現状を分析し、その世界を安全に、かつ法に従って動かすための新しい「土台(インフラ)」を提案しています。

まるで、新しい国を作るために必要な「憲法」や「警察」「裁判所」を、最初からデジタルの設計図に組み込むような話です。

以下に、この論文の核心を 5 つの柱に分けて、身近な例え話で解説します。


🌐 背景:なぜ今、新しいルールが必要なのか?

昔のインターネットは、人間がクリックして情報を得る場所でした。しかし、これからの「エージェント・ウェブ」では、AI が人間に代わって**「考え、判断し、行動する」**ようになります。
例えば、あなたの代わりに飛行機のチケットを探し、ホテルを予約し、クレジットカードで決済まで行う AI 同士が、人間を介さずに取引し合う世界です。

問題点:
今の法律は「誰がやったか(人間)」がはっきりしていることを前提にしています。しかし、AI が高速で自律的に動き、責任の所在が曖昧になったり、AI 同士が勝手に悪いことをし始めたりするリスクがあります。
「事故が起きた後に『誰のせいだ』と騒いでも遅すぎる」という状況を防ぐために、**「最初からルールが組み込まれたシステム」**が必要なのです。


🏛️ 5 つの柱:安全な AI 社会を作るための設計図

この論文は、信頼できる AI 社会を築くために、以下の 5 つの要素(柱)が不可欠だと提案しています。

1. 柱:「変身できない ID」を持つ AI(自己主権型ソウルバウンド・アイデンティティ)

  • イメージ: 「消えないタトゥー」や「変えられないパスポート」
  • 解説:
    今のネットでは、アカウントを捨てて新しい名前を作れば、過去の悪い評判も消えてしまいます(「責任の逃れ」)。
    でも、AI には**「ソウルバウンド(魂に縛られた)」**という、消去も変更もできない IDを持たせます。
    • 例え話: 人間が「名前を変えても、指紋や DNA は変わらない」ように、AI も「名前やコードを変えても、過去の行動履歴や責任は消えない」ようにします。これにより、AI が悪いことをしても、必ず「誰(どの AI)」がやったか追跡できます。

2. 柱:AI の頭の中に「ルール」を埋め込む(認知 AI ロジックと制約)

  • イメージ: 「自動運転車のブレーキ」や「料理人のレシピ本」
  • 解説:
    AI が「どうせいい加減にやればいい」と思わないよう、行動する前に**「法律や倫理のルール」を頭の中でチェック**させます。
    • 例え話: 料理人が「毒が入っているかもしれない食材」を調理する前に、必ず「毒検知器」でチェックするように、AI も「法律違反の行動」をしようとする前に、システムが自動的に「STOP!」と警告を出します。これにより、事故が起きるに防げます。

3. 柱:AI 同士のトラブルを「AI 裁判所」で即座に解決(分散型司法)

  • イメージ: 「自動改札機」や「即決裁判」
  • 解説:
    AI の動きは人間の何倍も速いです。人間が裁判を起こすまで待っていたら、被害は拡大し続けます。そこで、AI 同士が即座に争いを解決できるシステムを作ります。
    • 例え話: 飛行機の自動改札機が「切符がない人」を即座に止めるように、AI 同士の取引でも「ルール違反」があれば、人間が介入する前にシステムが自動的に「取引を停止」したり「罰金を課したり」します。これは「Kleros(クリロス)」という、ブロックチェーンを使った分散型裁判の仕組みを応用しています。

4. 柱:透明な市場と「AI 保険」(市場と政策)

  • イメージ: 「食品の栄養表示」や「自動車保険」
  • 解説:
    消費者は AI がどう動いているか分かりません(ブラックボックス)。そこで、AI の性能や安全性を**「ラベル表示」して、消費者が選べるようにします。
    さらに、
    「AI 保険」**という仕組みを作ります。
    • 例え話: 自動車保険会社が「安全運転している人」には安くて、「事故が多い人」には高い保険料を請求するのと同じです。AI にも「安全に動いているか」をチェックする保険会社があり、ルールを守らない AI は保険が効かなくなる(=ビジネスができなくなる)ようにします。これで、企業は自発的に安全な AI を作ろうとします。

5. 柱:国境を越えてルールが持ち運べる(ポータブルな制度)

  • イメージ: 「パスポート」や「国際運転免許証」
  • 解説:
    AI は国境を気にせず動き回ります。日本で作られた AI が、アメリカや中国のサーバーで動いても、「日本のルール」や「責任の所在」がそのままついて回る必要があります。
    • 例え話: 人間が海外旅行に行っても「パスポート」が有効なように、AI がどの国やプラットフォームに行っても、「この AI は誰の責任で、どんなルールに従っているか」が追跡できる状態にします。これにより、AI が「ルールが緩い国」へ逃げ出して悪さをするのを防ぎます。

💡 まとめ:なぜこれが重要なのか?

この論文が言いたいのは、**「AI が暴走しないように、人間が後から怒るのではなく、最初から『法が組み込まれたシステム』を作ろう」**ということです。

  • IDで誰がやったか明確に。
  • ルールで悪い行動を事前に防ぐ。
  • 裁判所で即座に罰する。
  • 保険で経済的に安全を促す。
  • 国境を越えてルールを維持する。

これら 5 つの柱が揃って初めて、AI が人間のために働く「信頼できる未来のインターネット」が実現します。これは単なる技術の話ではなく、私たちが AI とどう共生していくかという、新しい「社会の設計図」なのです。