Upholding Epistemic Agency: A Brouwerian Assertibility Constraint for Responsible AI

この論文は、民主的な認識的主体性を維持するため、高リスク領域における生成 AI に対して、Brouwer の思想に基づき「公的に検証可能な正当化の証明」がない限り「未決定」として出力を留保し、確信度ではなく検証可能な根拠に基づく責任ある AI 設計を提案するものである。

Michael Jülich

公開日 2026-03-05
📖 1 分で読めます☕ さくっと読める

Each language version is independently generated for its own context, not a direct translation.

この論文は、**「AI に『絶対的な正解』を言わせるのをやめ、『わからない』と言える勇気を持たせよう」**という、とても重要な提案をしています。

タイトルは少し難しいですが、内容をわかりやすく説明しましょう。

🎭 物語の舞台:AI という「自信過剰な朗読者」

今の生成 AI(チャットボットなど)は、まるで**「自信満々で朗読する俳優」**のようです。
たとえその内容が半分嘘(ハルシネーション)だったり、根拠が薄かったりしても、AI は流暢で堂々と「正解です!」と言います。

  • 今の問題点:
    私たちはその「堂々とした声」に騙されて、AI の言葉を事実だと信じてしまい、自分で考えたり疑ったりする力(これを論文では**「認識の主体性(Epistemic Agency)」**と呼びます)を失いつつあります。
    「AI がそう言うなら、もう間違いないだろう」と思い込むと、民主主義や社会の議論が壊れてしまいます。

🔨 解決策:「ブローワーのルール」を AI に教える

著者は、数学者のルイ・ブローワーという人の考え方をヒントに、AI に新しいルールを課すことを提案しています。

「証拠(証明書)がなければ、『YES』も『NO』も言わない」

これがこの論文の核心です。

🏗️ 具体的な仕組み:3 つの答え

AI は、これからの回答を以下の 3 つのどれかに分類して出す必要があります。

  1. ✅ 断言(Asserted):
    「これは正しい!」と言える。

    • 条件: AI の内部で「これこそが正解だ」と証明できる**「証拠(証明書)」**が揃っている場合。
    • 例: 「国会の公式記録と契約書、宣誓供述書に基づき、この大臣は汚職を犯したと証明できます(証明書添付)」
  2. ❌ 否定(Denied):
    「これは間違いだ!」と言える。

    • 条件: 「これは間違いだ」と証明できる**「証拠」**が揃っている場合。
    • 例: 「裁判所の判決と証拠により、この大臣は潔白であると証明できます(証明書添付)」
  3. ❓ 未定(Undetermined):
    「今は答えられない」。

    • 条件: 証拠が足りなかったり、曖昧だったりする場合。
    • 例: 「噂はありますが、公式な調査結果が出ていません。今のところ**『わからない』**と答えるしかありません。証拠が集まればまた考え直します」

ここが重要:
「未定(Undetermined)」は、AI が「バグった」わけでも「怠けている」わけでもありません。「証拠がないから、無理に答えを出さない」という、最も誠実で責任ある態度なのです。

🧩 アナロジー:「裁判所」と「AI」

この仕組みを**「裁判所」**に例えてみましょう。

  • 今の AI:
    裁判官が、証拠がなくても「犯人は A さんだ!」と即座に判決を下すようなものです。それは危険です。
  • この論文の提案する AI:
    裁判官は、検察官から「証拠(証明書)」を提出されないと、判決(YES/NO)を下しません。
    「証拠が足りないなら、**『審理保留(未定)』**にする」と言います。
    そして、なぜ保留なのか(証拠が足りないのか、範囲が違うのか)を詳しく説明します。

これにより、人々は「AI が言ったから」と blindly(盲目的に)従うのではなく、「あ、証拠がまだ足りないんだな。じゃあ、もっと情報を集めよう」と、自分で考え、議論する力を取り戻すことができます。

🛠️ どうやって実現するの?(技術的な話)

「でも、AI は計算機なのに、どうやって『証拠』を出すの?」という疑問があります。

論文では、AI の内部で**「数値の境界線」**を厳しくチェックする仕組みを作ろうとしています。

  • 例:「この答えの確率は 80% 以上だ」という曖昧な数字ではなく、**「この答えは、間違いなく 90% 以上である」と証明できる計算結果(証明書)**が出せるかどうかをチェックします。
  • もし計算結果が「70%〜90%」のように幅広すぎて、結論が出せないなら、無理に「80%」と出さず、**「未定」**とします。

🌟 この提案がもたらす未来

このルールを導入することで、AI は以下のような存在になります。

  • 「正解を押し付ける神」ではなく、「情報を整理する助手」
  • 「自信過剰な嘘つき」ではなく、「証拠を重視する誠実なパートナー」

著者は、**「AI に『わからない』と言える能力を持たせること」こそが、AI と人間が共に成長し、民主的な社会を守るための教育(Education for grown-ups)**だと説いています。

まとめ

この論文は、**「AI に『わからない』と言わせることは、AI の能力不足ではなく、むしろ人間を守るための最も賢い設計」**だと伝えています。

  • 証拠があれば: 堂々と「YES/NO」と言う。
  • 証拠がなければ: 堂々と「未定(U)」と言う。

この「未定」という選択肢を尊重することで、私たちは AI の言葉に流されず、自分たちの頭で考え、社会を良くしていくことができるようになります。