Verbalizing LLM's Higher-order Uncertainty via Imprecise Probabilities

この論文は、従来の確率論的枠組みでは捉えきれない大規模言語モデル(LLM)の不確実性を、不確実性そのものに対する不確実性(第二-order 不確実性)を含む「不確実確率」の枠組みに基づき、プロンプトと後処理を通じてより忠実に引き出す新しい手法を提案し、その有効性を多様な設定で実証するものである。

Anita Yang, Krikamol Muandet, Michele Caprio, Siu Lun Chau, Masaki Adachi

公開日 2026-03-12
📖 1 分で読めます☕ さくっと読める

Each language version is independently generated for its own context, not a direct translation.

この論文は、**「AI(大規模言語モデル)が『わからない』と言っているとき、その『わからない』の本当の重みと種類を、もっと正確に読み取る方法」**を提案するものです。

従来の AI は「自信度 80%」のように、単一の数字で自分の確信度を伝えようとしますが、これには大きな落とし穴があります。この論文は、「不確実性(Uncertainty)」を「不確かな確率(Imprecise Probabilities)」という新しいレンズを通して見ることで、AI の本音を引き出す方法を提案しています。

以下に、専門用語を排し、日常の例え話を使って解説します。


1. 従来の方法の「失敗」:AI は「嘘」をついている?

まず、これまでの AI の「自信度」がなぜ問題なのかを、**「天気予報」**に例えてみましょう。

  • 従来の AI(ヴァンilla):
    「明日は雨です。自信度 80% です!」と言います。
    • 問題点 1(曖昧な質問): もし質問が「明日、傘は必要?」で、天気図が「雨か曇りか、どっちか分からない」状態だった場合、AI は「80%」と平気で言います。でも、実際は「雨の可能性も曇りの可能性も半々」なのに、AI は「どちらか一方が正しい」と決めつけているように見えます。
    • 問題点 2(ヒントが増えると): 天気予報のヒント(過去のデータ)が 1 個しかない時と、100 個ある時で、AI の「自信度」が変わらないことがあります。本来ならヒントが増えれば「もっと確実になるはず」なのに、AI は「あ、やっぱり 80% かな?」とそのまま言います。
    • 問題点 3(自分の判断との矛盾): 「A が正解だと 80% 自信がある」と言いながら、実際に選ぶ答えは「B」だったりします。これは「自信」と「行動」がズレています。

このように、AI は「確実な数字」を無理やり出そうとして、**「本当はよく分かっていない(曖昧さ)」「情報が足りていない(無知)」**という 2 つの異なる種類の「不安」をごちゃ混ぜにしてしまっています。

2. 新しい方法:不確かな確率(Imprecise Probabilities)の魔法

この論文が提案するのは、**「確率を 1 つの数字(例:80%)ではなく、『幅』で表す」**という考え方です。

これを**「射的(的当て)」**に例えてみましょう。

  • 従来の AI:
    「的の中心に当たると**80%**の確信があります!」と言います。

    • これは、的の中心がどこか、AI がよく分かっていない場合でも、無理やり「80%」という点で表現してしまいます。
  • 新しい AI(不確かな確率):
    「的の中心に当たる確率は、最低 20% から最大 80% の間にあると思います」と言います。

    • 幅(20%〜80%)の意味: この「幅」が、AI が**「どれくらい情報が足りていないか(無知さ)」**を表します。
      • 幅が狭い(例:75%〜85%)=「情報は十分、自信がある」。
      • 幅が広い(例:20%〜80%)=「情報が不足している、よく分かっていない」。

このように、**「確信度(1 次不確実性)」「その確信度がどれくらい揺らぎがあるか(2 次不確実性)」**を分けて伝えることで、AI の本音が見えてきます。

3. 具体的な 3 つのメリット

この新しい方法を導入すると、以下のような「魔法」が起きるそうです。

① 曖昧な質問を見分ける(「どっちも正解かも」の発見)

  • 例: 「2019 年のクリケット・ワールドカップの開催国は?」
    • 正解は「イングランドとウェールズの共催」ですが、選択肢が「イングランド」「ウェールズ」「イギリス」「インド」に分かれていると、AI は迷います。
    • 従来の AI: 「イングランドが正解だと 50%、ウェールズが 50%」と、まるで「どっちか一方が正解」であるかのように振る舞います。
    • 新しい AI: 「イングランドが正解かもしれない(下限 20%)、でもウェールズも正解かもしれない(上限 80%)」と、**「質問自体が曖昧で、どちらもあり得る」**という幅を表現します。これにより、人間は「あ、この質問は答えが一つじゃないんだ」と気づけます。

② 学習効果の可視化(「ヒントが増えれば安心感が増す」)

  • 例: 暗号解読ゲームで、ヒントを 1 つ与える時と、100 個与える時。
    • 従来の AI: ヒントが増えても「自信度」が変わらず、高いまま(または低いまま)で止まってしまいます。
    • 新しい AI: ヒントが増えるにつれて、「確率の幅(20%〜80%)」が狭まっていき(例:75%〜85%)、AI が「あ、これで分かった!」と安心している様子が数値でわかります。

③ 自己矛盾の解消(「言っていることとやっていることの一致」)

  • AI が「A が正解だと確信している」と言いながら「B」を選ぶような矛盾がなくなります。
  • 新しい方法では、AI は**「最も確実な下限(一番低い確信)」**に基づいて判断するよう促されます。これにより、「確信度」と「実際の選択」が一致し、AI の判断がより信頼できるものになります。

4. 結論:AI との対話をより「賢く」する

この論文の核心は、**「AI に『確実な数字』を強要するのをやめ、代わりに『幅のある答え』を許容する」**という姿勢の転換です。

  • 従来のアプローチ: 「100% 確実か?80% 確実か?」と、AI を「点」で測ろうとする。
  • 新しいアプローチ: 「どのくらい確実で、どのくらい揺らぎがあるか?」と、AI を「幅」で測る。

これにより、AI は「わからないこと」を「わからない」と正直に伝えられるようになり、人間は AI の回答を盲目的に信じるのではなく、「この部分は幅が広いから、もう一度確認しよう」といったより賢い判断を下せるようになります。

一言で言えば:
「AI に『自信』という名前を付けずに、代わりに『不安の範囲』を教えてもらうことで、AI との会話をより安全で、賢く、信頼できるものにする方法」です。