LLM Probability Concentration: How Alignment Shrinks the Generative Horizon

本論文は、新しい指標「分岐因子(BF)」を用いて、LLM のアライメントが生成の多様性を著しく低下させ、より確定的な軌道へとモデルを誘導するメカニズムを解明し、これが複雑な推論における安定性向上や、ベースモデルの制御にも応用可能であることを示しています。

Chenghao Yang, Sida Li, Ari Holtzman

公開日 2026-03-04
📖 1 分で読めます☕ さくっと読める

Each language version is independently generated for its own context, not a direct translation.

🌲 物語:巨大な迷路と「分岐点」

AI が文章を作るプロセスは、**「巨大で複雑な迷路を歩く」**ことに似ています。
AI は一語一語(トークン)を選ぶたびに、迷路の分岐点に立ちます。

  • 素の AI(Base Model):
    迷路の入り口では、無数の道が広がっています。「こんにちは」の次には、「元気ですか?」「今日は天気がいいですね」「私はロボットです」など、あらゆる可能性が並んでいます。AI は迷いながら、多くの道を選べるため、多様で意外な答えが出ます。

    • この状態を「分岐数(BF)が高い」と呼びます。
  • 調整された AI(Aligned Model / Chatbot):
    人間に役立つように「調整(アライメント)」された AI は、入り口で**「正解っぽい道」だけが光り輝き、他の道は暗く消えてしまいます**。
    「こんにちは」の次は、ほぼ間違いなく「元気ですか?」や「何かお手伝いしましょうか?」という、安全で礼儀正しい道しか残っていません。

    • この状態を「分岐数(BF)が低い(収束している)」と呼びます。

この論文の核心は、**「調整された AI は、最初から道が狭まっているため、どんな歩き方(パラメータ設定)を変えても、結局同じ道しか歩けない」**という発見です。


🔍 3 つの重要な発見

1. 「道が狭まる」現象(Probability Concentration)

AI が文章を生成するにつれて、迷路はさらに狭まっていきます。

  • 冒頭: 調整された AI は、最初の数語で「はい、承知いたしました(Sure,)」のような定型句を選びます。これで、AI はすでに**「最も確実な道」**にロックオンしてしまいます。
  • 結果: 道が狭まりすぎているため、温度設定(Temperature)を変えて「もっと自由に歩かせても!」と言っても、AI は**「他に歩く道がない」**ので、同じような答えしか返せなくなります。これが、なぜ調整された AI が「デコード戦略(歩き方)」の影響を受けにくい理由です。

2. 「思考の連鎖(CoT)」は安定の魔法

「Chain-of-Thought(思考の連鎖)」という、AI に「ステップバイステップで考えさせてから答えを出す」手法は、実は**「迷路を深く掘り進める」**効果があります。

  • AI が長い思考プロセス(「まず、A を考え、次に B を…」)を生成している間、迷路はどんどん狭まり、「最も確実な道」だけが残ります
  • その状態で「答え」を導き出すと、AI はすでに**「迷う余地がまったくない状態」**に達しているため、非常に安定した、高品質な答えが出ます。
  • つまり、CoT は「答えを出す直前に、AI を最も確実な道に誘導する」仕組みなのです。

3. 調整の正体:「道案内」の仕掛け

では、なぜ調整された AI は道が狭まるのでしょうか?
論文は、**「AI の能力そのものが変わったわけではない」**と指摘します。

  • 素の AI も、実は「礼儀正しい道」や「定型句」を知っています。
  • 調整(アライメント)は、AI の脳内にある**「すでに存在する低リスクの道」を、AI が選びやすいように「道案内(Nudging)」**しているだけです。
  • 例えば、素の AI に「はい、承知いたしました(Sure,)」と書き添えてから始めさせると、素の AI だけでも、調整された AI と同じように道が狭まり、安定した答えを出すようになります。
  • つまり、調整は「新しい能力」を教えたのではなく、「AI が元々持っていた安全な道を選びやすくするスイッチ」を入れたに過ぎません。

💡 私たちへの教訓

この研究は、AI を使う上で重要な示唆を与えてくれます。

  1. 「多様性」を失う代償:
    AI を「安全で役立つ」ように調整すると、「創造性」や「意外性」が失われるのは当然のことです。道が狭まっているからです。もし「もっと面白い答えが欲しい」なら、あえて調整されていない「素の AI」を使うか、訓練段階で多様性を保つ工夫が必要です。
  2. 「安定性」の仕組み:
    複雑な推理や数学の問題を解くとき、AI が安定して正解を出すのは、**「思考プロセスを通じて、迷う余地を消し去っているから」**です。
  3. パラメータ調整の限界:
    「温度(Temperature)」を高くしても、AI が「多様な答え」を出さないのは、**「道自体が狭まっているから」**です。パラメータをいじっても、消えた道は復活しません。多様性を取り戻すには、AI の「歩き方」ではなく「迷路の設計(学習データや学習方法)」を変える必要があります。

🎯 まとめ

この論文は、**「AI がなぜ同じようなことを言うのか」を、「迷路の道幅(分岐数)」**という視点で説明しました。

  • 調整された AI = 最初から**「一本道」**に誘導されている。だから安定しているが、多様性はない。
  • 思考の連鎖(CoT) = 迷路を深く進ませることで、**「一本道」**に到達しやすくする。
  • 調整の正体 = AI が元々持っていた**「安全な道」を、選びやすくする「道案内」**。

AI の「安定性」と「画一性」は、単なるバグではなく、「確率の道幅が狭まる」という自然な現象だったのです。