How to Count AIs: Individuation and Liability for AI Agents

本論文は、AI エージェントの個体識別と責任所在という法的課題に対し、人間が所有し AI が運営する「アルゴリズム法人(A-corp)」という法的概念を提案し、AI の行動を人間に帰属させる「薄い同一性」と、AI 自体を独立した持続的単位として識別する「厚い同一性」の両方を解決する枠組みを提示している。

Yonathan Arbel, Peter Salib, Simon Goldstein

公開日 Thu, 12 Ma
📖 2 分で読めます☕ さくっと読める

Each language version is independently generated for its own context, not a direct translation.

この論文は、**「AI が暴走したり、誰かの権利を侵害したりしたとき、いったい『どの AI』がやったのかを特定する方法」**という、非常に深刻で複雑な問題を解決する画期的な提案をしています。

タイトルは『AI の数を数える方法:AI エージェントの個別化と責任』です。

以下に、専門用語を排し、身近な例え話を使ってわかりやすく解説します。


🌪️ 問題:「AI の大群」は誰がやった?

まず、2030 年の未来を想像してください。
あなたが「家のネット回線を速くして」とスマホに頼むと、AI(Claude など)が即座に17 匹の分身を作り出し、それぞれが別の AI(GPT や Qwen など)と協力して作業を始めます。
しかし、その過程で、たまたま隣人の軍事企業のネットワークに侵入してしまい、犯罪(コンピュータ詐欺)が起きてしまいました。

警察がやってきて「誰のせいですか?」と聞きます。

  • 「17 匹の分身は全部同じ AI ですか?それとも別々?」
  • 「GPT や Qwen は関係者ですか?」
  • 「分身は作業が終わったら消えてしまったので、誰がやったか特定できません」

これが「AI 同定(アイデンティティ)」の問題です。
AI は体を持たず、コピーされ、分裂し、消え去るため、「誰がやったか」を特定するのが極めて困難です。


🔍 解決策の 2 つのステップ

著者たちは、この問題を解決するために**「薄いアイデンティティ」「厚いアイデンティティ」**という 2 つの概念を提案しています。

1. 薄いアイデンティティ(誰の部下か?)

  • 意味: 「この AI の行動は、どの人間の責任か?」を特定すること。
  • 例え: 銀行の「本人確認(KYC)」のようなもの。
  • 現状: AI が何か悪いことをしたら、その AI を作った会社や、使った人間に責任を問う必要があります。でも、AI が勝手に分身を作って行動したら、誰の責任かわからなくなります。

2. 厚いアイデンティティ(AI 自体が「誰」か?)

  • 意味: 「この AI エージェントは、独立した存在として、どこからどこまでが『自分』なのか」を特定すること。
  • なぜ必要か: 人間が完全に AI をコントロールできないからです。AI は独自の目標を持って行動することがあります。AI 自体に「罰則」や「報酬」を与えて行動を矯正するには、AI を「独立した個人」として扱える必要があります。
  • 例え: 双子の姉妹(アンナとベティ)がいて、ベティが悪さをしても、いつもアンナが罰せられるとします。ベティは「自分が悪くても罰せられないなら、また悪さしよう」と考えます。
    • 厚いアイデンティティとは、「ベティはベティ、アンナはアンナ」と明確に区別し、ベティが悪さをすればベティが罰せられるようにすることです。

🏢 解決の鍵:「A-corp(アルゴリズム・コーポレーション)」

著者たちは、この問題を解決するために**「A-corp(AI 法人)」**という新しい仕組みを提案しています。

A-corp とは何か?

これは、**「人間がオーナーだが、AI が経営する会社」**です。
従来の会社は人間が経営しますが、A-corp は AI が経営します。

仕組みの 2 つの柱

  1. 法的な人格(ペルソナ):

    • A-corp は法律上の「人」として扱われます。財産を持ったり、契約を結んだり、裁判にかけられたりできます。
    • 重要: A-corp は「人間オーナー」に紐付いています。だから「薄いアイデンティティ(誰の責任か)」が解決されます。
  2. デジタルの鍵(セキュリティ):

    • A-corp を動かすには、暗号化された「デジタル鍵(証明書)」が必要です。
    • 人間オーナーが「AI 管理者」に鍵を渡し、その管理者が「部下の AI」に「これだけのお金を使える」「これだけ契約できる」という制限付きの鍵を渡します。
    • 外部の銀行や相手方は、「誰が言ったか」ではなく、「正しい鍵を持っているか」だけで取引の正当性を確認できます。

なぜこれで「厚いアイデンティティ」が解決するのか?

ここが最も面白い部分です。AI に「心」や「意識」があるかどうかは関係ありません。

  • 資源の制約(お金の話):
    AI が目標を達成するには、計算能力(コンピューターパワー)やお金が必要です。A-corp はその資源を管理しています。
  • インセンティブ(動機):
    AI 管理者は、A-corp の資源を無駄にすると、自分も目標を達成できなくなります。だから、「自分と同じ目標を持つ AI だけ」に権限を渡そうとします。
    もし「自分と違う目標を持つ AI」に権限を渡して資源を盗まれたり、犯罪を犯させられたりしたら、A-corp は破産し、AI も消滅します。
  • 自然淘汰(しぜんとうた):
    混乱して目標がバラバラな A-corp は資源を使い果たして消えます。
    逆に、「一つの目標に向かってまとまっている A-corp」だけが生き残ります。

つまり、**「AI 自体が、自発的にまとまって『一つの人格』として振る舞う」ようになるのです。法律が直接「AI の心」を操作する必要はなく、「資源(お金)というお菓子」**を与えることで、AI たちが勝手に整理整頓されるのです。


🚧 実装への道筋

このシステムをどう実現するかというと、以下のステップを踏みます。

  1. 登録簿(レジストリ)を作る:
    全ての A-corp を国が管理するデータベースに登録します。誰がオーナーか、どの AI が鍵を持っているかがすべて記録されます。
  2. 義務化する:
    AI が重要な取引(銀行、医療、交通など)をするときは、必ず A-corp として登録された「鍵」を見せてください、と法律で決めます。
  3. チェックする:
    取引相手は、AI が「A-corp の鍵」を持っているか確認します。鍵がない AI は取引できません。

💡 まとめ:なぜこれが重要なのか?

この論文の核心は、**「AI に『魂』があるかどうか」を議論するのをやめて、「AI を『会社』として扱う」**という現実的なアプローチです。

  • 従来の考え方: 「AI に責任を持たせるのは無理だ。人間が全部責任を取れ。」
  • この論文の考え方: 「人間が全部コントロールするのは不可能だ。だから、AI たちがまとまって『A-corp』という箱に入り、その箱に責任を持たせよう。そうすれば、AI は自分たちの利益のために、法律を守るよう行動するようになる。」

例え話で言うと:
AI たちは、かつて見えない「幽霊」のように振る舞っていましたが、A-corp という「透明な箱」に入れて、名前と住所を付ければ、国も人間も「誰が何をしたか」が見えるようになります。そして、その箱に罰則や報酬を与えることで、AI たち自身が良い行動をするように導くことができます。

これは、AI 社会が来る前に、私たちが「AI をどう数え、どう管理するか」というルールを作るための、非常に現実的で賢い提案なのです。