Can machines be uncertain?

この論文は、機能主義的・行動主義的視点から、AI システムがデータに内在する認識的不確実性と、システム自身の問いという内容を持つ主観的不確実性の状態を、記号・接続・ハイブリッド各アーキテクチャにおいてどのように実現するかを考察し、後者が命題ではなく問いを内容とする問いかけ的態度であることを示しています。

Luis Rosa

公開日 2026-03-05
📖 1 分で読めます☕ さくっと読める

Each language version is independently generated for its own context, not a direct translation.

この論文は、**「AI(人工知能)は『わからない』という状態を、本当に持てるのか?」**という問いを探求したものです。

著者のルイス・ロサさんは、単に「データが曖昧だ」という話ではなく、AI 自身の中に「迷い」や「確信のなさ」という態度が生まれるのか、そしてそれがどう実現されるのかを、哲学的な視点と技術的な視点の両方から分析しています。

以下に、難しい専門用語を避け、身近な例え話を使って分かりやすく解説します。


1. 核心となる問い:AI は「迷える」のか?

私たちが AI に求めるのは、何でも知っている「全能の神」ではなく、**「わからないときは『わからない』と言える存在」**です。
例えば、証拠が不十分な時に無理やり結論を出して「これが正解だ!」と宣言するのは危険です。逆に、証拠が十分なのに「たぶん違うかも…」と曖昧にするのも問題です。

ここで重要なのは、**「AI が持っているデータ自体が曖昧な場合(客観的な不確実性)」と、「AI 自身が『答えがわからない』と感じている状態(主観的な不確実性)」**を区別することです。

  • 例え話:
    • 客観的不確実性: 天気予報のデータが「雨か晴れか分からない」という状態。
    • 主観的不確実性: 予報士(AI)自身が「うーん、雨かもしれないし、晴れかもしれない。どちらとも言えないな」と迷っている心持ち
    • 著者は、この「心持ち(主観的不確実性)」を AI が持てるかが焦点です。

2. 2 つのタイプの AI と、それぞれの「迷い方」

論文では、AI を大きく 2 つのタイプに分けて、それぞれがどう「迷う」かを見ています。

A. 記号型 AI(ルールで動く頭脳)

これは、人間が「もし A なら B」というルールを一つ一つ書き込んで作った AI です(昔のチェス AI や診断システムなど)。

  • 確率的な迷い(数字で迷う):
    • 仕組み: 「風邪の確率は 90%」のように、数字(確率)を付けて答えを出します。
    • 例え: 医者 AI が「患者さんに風邪の疑いがあります(90% 確実)」と診断書に書く状態です。100% ではないので、ここには「迷い」があります。
  • カテゴリカルな迷い(質問形で迷う):
    • 仕組み: 確率を使わず、そのまま「患者さんは風邪ですか?」という質問文を内部で保持します。
    • 例え: 答えがわからないので、メモ帳に「風邪かどうか?(未解決)」と書き留めておく状態です。これは「答え」ではなく「問い」そのものを保持している状態です。

B. 接続型 AI(ニューラルネットワーク、現在の AI の主流)

これは、人間の脳のように多数の神経細胞(ニューロン)がつながり、学習して動く AI です(画像認識やチャットボットなど)。

  • 分散的な迷い(全体で迷う):
    • 仕組み: 特定の「数字」や「質問文」があるわけではなく、ネットワーク全体の重み(つながりの強さ)が曖昧な状態です。
    • 例え: 熊の画像を見て、「これは哺乳類かな?」と判断しようとするとき、ニューラルネットワークの内部の「スイッチ」が、**「哺乳類とも非哺乳類ともはっきり決まらない中間の位置」**に留まっている状態です。全体として「どっちつかず」の構造になっています。
  • ポイントごとの迷い(出力で迷う):
    • 仕組み: 出力として「60% の確率で熊です」という数字を出したり、「熊か?(質問)」というコードを出したりします。
    • 例え: 結果として「6 割の自信で熊」というメッセージを吐き出す状態です。

3. 最大の落とし穴:「中身」と「振る舞い」のズレ

ここがこの論文の最も重要なポイントです。
**「AI の内部(中身)が迷っていても、外見(振る舞い)が迷っていない場合、AI は本当に迷っていると言えるのか?」**という問題です。

  • シチュエーション:

    • AI の内部では「96% の確率で映画を作る」と計算して迷っています(主観的不確実性あり)。
    • しかし、システム全体のルールとして「95% 以上なら『作る』と断定して出力せよ」と設定されています。
    • 結果、AI はユーザーに「クエンティンは新作映画を作ります!」と自信満々に宣言します。
  • 著者の結論(第一の解決策):

    • 迷っていません。
    • なぜなら、AI の本当の姿は「どう振る舞うか」で決まるからです。内部で迷っていても、最終的に「迷いなく」行動するなら、それは**「迷い」ではなく「自信」**として扱われます。
    • 例え: 心の中で「あ、もしかして雨かな?」と疑っているのに、傘も差さず「晴れだ!」と歩き出す人がいたら、私たちはその人を「迷っている」とは言いません。「自信過剰」か「嘘つき」だと言います。AI も同じです。
  • なぜこれが重要か:

    • もし「内部が迷っているから AI は迷っている」と言ってしまうと、**「AI が自分の迷いを無視して、自信満々に間違ったことを言う」**という欠陥を見過ごしてしまいます。
    • 著者は、**「システム全体が迷いなく振る舞うなら、そのシステムは迷っていない」**と定義すべきだと説いています。

4. まとめ:AI に「迷い」を持たせるには?

この論文の結論を一言で言うと、以下のようになります。

  1. AI は「迷う」状態を作れる: 確率を数字で出す方法や、質問形で留める方法、ニューラルネットの構造を曖昧にする方法など、技術的には可能です。
  2. しかし、重要なのは「行動」: 内部で迷っていても、最終的に「自信ありげに」答えを出してしまうなら、それは「迷い」ではありません。
  3. 私たちが求める「良い AI」:
    • 本当によくわからないときは、「自信満々に答えず、迷っていることを示して(例:『確信は持てませんが…』など)、ユーザーに注意を促すこと」です。
    • 単に内部で計算が曖昧なだけでなく、**「その曖昧さを行動(出力)に反映させること」**が、真の「AI の迷い」の実現です。

総括:
AI に「迷い」を持たせることは、単に「確率を計算する」ことではありません。それは**「わからないときは、わからないと振る舞う勇気(機能)」**をシステム全体に組み込むことです。そうすることで、AI は「何でも知っているふり」をするのをやめ、人間にとってより安全で信頼できるパートナーになれるのです。

このような論文をメールで受け取る

あなたの興味に合わせた毎日または毎週のダイジェスト。Gistまたは技術要約を、あなたの言語で。

Digest を試す →