Legal interpretation and AI: from expert systems to argumentation and LLMs

本論文は、AI と法の研究が、専門家の解釈を知識ベースへ転移するエキスパートシステム、解釈的論証の構造と受容性を評価する議論フレームワーク、そして法実務で活用される大規模言語モデルによる解釈の自動生成へと、そのアプローチと方法論を進化させてきた経緯を概説しています。

Václav Janeček, Giovanni Sartor

公開日 2026-03-06
📖 1 分で読めます☕ さくっと読める

Each language version is independently generated for its own context, not a direct translation.

この論文は、**「AI(人工知能)と法律の解釈」**というテーマについて、過去の技術から最新の AI までを振り返りながら、どう向き合うべきかを解説したものです。

法律の解釈とは、「この条文は、この状況に当てはまるのか?」という問いに答える作業です。AI はこの作業をどうやって、そしてどうやってきたのでしょうか?

わかりやすく、3 つの「時代」に分けて、身近な例え話で説明します。


1. 昔の AI:「完璧なマニュアル作成者」

(専門知識システム:Expert Systems)

昔の AI は、まるで**「厳格な料理のレシピ本」**のようなものでした。

  • 仕組み: 人間(法律の専門家)が「A なら B だ」「C なら D だ」というルールを一つ一つ書き込み、AI に覚えさせます。
  • 例え話: 「公園には車を入れない」というルールがあったとします。
    • AI は「車=エンジンがついているもの」という定義を事前に決めています。
    • もし「子供が乗る自転車」が公園に入ろうとしても、AI は「自転車はエンジンがないから車じゃない」と判断し、OK 出します。
    • でも、もし「車=エンジンがあるもの+自転車も含む」というルールを最初に人間が間違えて入力してしまったら、AI は「自転車も NG!」と厳しく判断してしまいます。
  • 問題点: 人間が事前に「すべて」のルールを決めなければなりません。もし「子供が乗る自転車」のような、状況によって変わる微妙なケースが出てきても、AI は柔軟に対応できず、「マニュアル通り」にしか動けません。

2. 中盤の AI:「議論の仲裁人」

(議論の AI:Argumentation)

次に、AI は**「法廷での議論」**をシミュレートするようになりました。

  • 仕組み: 正解が一つだけあるのではなく、「A さんの意見」と「B さんの意見」をぶつけ合い、どちらがより説得力があるかを判断します。
  • 例え話: 同じ「公園に車を入れない」というルールで、子供が自転車に乗って来た場合。
    • 警官(AI)の意見: 「『車』には普通、自転車も含まれるから、ダメだ!」(言葉の定義重視)
    • 子供(AI)の意見: 「でも、このルールは『騒音や事故』を防ぐのが目的でしょ?子供が静かに乗っているなら、目的に反しないから OK だ!」(目的重視)
    • AI は、この二つの議論を並べて、「目的重視の意見の方が、この状況ではもっとも理にかなっている」と判断します。
  • 特徴: 正解を最初から決めるのではなく、「議論の過程」を重視して、最も納得できる答えを見つけようとします。

3. 最新の AI:「天才的な真似っ子」

(大規模言語モデル:LLMs / 生成 AI)

現在の ChatGPT などの AI は、**「膨大な本を読んだ天才的な真似っ子」**です。

  • 仕組み: 法律の条文や裁判例、ニュースなど、インターネット上の膨大なテキストを丸ごと読み込み、「人間がどう答えるか」を統計的に学習しています。
  • 例え話: あなたが「公園の自転車はどうなる?」と聞くと、AI は即座にこう答えます。
    • 「一般的には車に含まれますが、目的によっては例外もありますね。子供なら許されるケースもよくありますよ。ただし、公園のルール次第です!」
    • 非常に自然で、人間が言っていそうなことを言います。
  • メリット: すぐにたくさんの意見や解釈の候補を提示してくれます。法律の専門家でも、AI が「あ、こんな視点があったのか!」と気づかせてくれることがあります。
  • 大きなリスク(ハルシネーション):
    • AI は「真実」を知っているわけではなく、「ありそうな言葉」を繋げているだけです。
    • 嘘をつくことがあります。 「実は、この公園には『子供用自転車は OK』という特別な条例があります」と存在しない法律を勝手に作り出して(幻覚)、自信満々に教えてしまうのです。
    • また、同じ質問をしても、答えが変わったり、論理的な飛躍があったりします。

結論:AI は「助手」だが、「裁判官」にはなれない

この論文が伝えている最も重要なメッセージは以下の通りです。

  1. AI は「魔法の杖」ではない:
    AI が「これが正解です」と言っても、それをそのまま信じてはいけません。AI は「アイデア出しのパートナー」や「参考文献の整理係」にはなりますが、最終的な判断を下す「裁判官」にはなれません。

  2. 人間の責任は残る:
    AI が提示した「子供用自転車は OK だ」という答えが、本当に正しいかどうかは、人間(弁護士や裁判官)が元の法律を確認し、責任を持って判断しなければなりません。
    もし AI の嘘(幻覚)を信じて子供に罰金を科したり、逆に許可を出したりしたら、それは人間の責任です。

  3. 未来の使い道:
    今後は、AI の「言葉の力」と、論理や議論の「厳密さ」を組み合わせる研究が進んでいます。

    • AI が大量の法律文書から情報を抜き出し、
    • 人間がその情報を論理的にチェックして、
    • 最終的に「正しい解釈」を導き出す。
      という**「AI と人間のタッグ」**が、法律の世界の新しい形になるでしょう。

まとめると:
AI は法律の解釈において、**「非常に優秀な秘書」にはなれますが、「責任ある上司」**にはなれません。秘書が提案した案を、上司(人間)が必ずチェックして、最終決定を下す。これが、今のところ最も賢い付き合い方です。

このような論文をメールで受け取る

あなたの興味に合わせた毎日または毎週のダイジェスト。Gistまたは技術要約を、あなたの言語で。

Digest を試す →