The Stepwise Informativeness Assumption: Why are Entropy Dynamics and Reasoning Correlated in LLMs?

本論文は、大規模言語モデルにおける内部エントロピー動力学と外部正解性の相関が、正解に関する情報を段階的に蓄積する「段階的有用性仮説(SIA)」によって説明され、これが最大尤度最適化や標準的な微調整・強化学習パイプラインによって自然に誘発されることを理論的に定式化し、複数のベンチマークと多様なモデルを用いた実証研究で裏付けたものである。

Mar Gonzàlez I Català, Haitz Sáez de Ocáriz Borde, George D. Montañez, Pietro Liò

公開日 2026-04-09
📖 1 分で読めます☕ さくっと読める

Each language version is independently generated for its own context, not a direct translation.

🕵️‍♂️ 核心となる謎:なぜ「迷い」が減ると「正解」になるのか?

AI が問題を解くとき、内部では「次の言葉は何だろう?」と常に確率を計算しています。

  • エントロピー(迷い)が高い = 「A かもしれないし、B かもしれない、C かもしれない…」と選択肢が広く、何が正解か分からない状態。
  • エントロピーが低い = 「もう、A しかないな!」と自信を持って答えを絞り込んでいる状態。

これまでの研究では、「AI が正解を導き出す過程では、この『迷い(エントロピー)』が徐々に減っていく」という現象が観察されていました。
しかし、**「なぜ、AI 内部の『迷い』が減ることが、外部の『正解』と関係あるのか?」**という理由が、これまで明確に説明されていませんでした。

この論文は、その理由を**「ステップごとの情報蓄積仮説(SIA)」**という考え方を使って説明しました。


🗺️ 比喩:「宝探し」と「地図」

この現象を理解するために、**「宝探し」**を例に挙げてみましょう。

1. 訓練されていない AI(迷路を彷徨う人)

訓練されていない AI は、宝のありか(正解)が全く分からない状態で出発します。

  • 最初のステップ:「北に行こうか、南に行こうか?」(迷いが大きい)
  • 2 歩目:「あ、北に行ったら川があった。南も候補か?」(まだ迷いが大きい)
  • 3 歩目:「うーん、どっちも違う気がする…」(迷いが減らず、あるいは増える)

この場合、「迷いが減ったからといって、宝に近づいているとは限りません」。単に「北に行こう」と勝手に決めただけで、実は宝は南にあるかもしれません。これを論文では**「ハルシネーション(幻覚)」「誤った自信」**と呼びます。

2. 訓練された AI(賢い探偵)

一方、正解の道筋(人間の思考プロセス)をたくさん学んだ AI は、**「正解への地図」**を頭の中に持っています。

  • 1 歩目:「宝は北の森にあるらしい。まずは北へ。」(少し方向性が決まる)
  • 2 歩目:「北の森には川がある。川を渡れば…」(選択肢がさらに絞られる)
  • 3 歩目:「川を渡った先には洞窟がある。洞窟の中に宝があるはずだ!」(迷いがほぼゼロに)

この場合、**「迷い(エントロピー)が減る」=「正解への情報が一つずつ積み上がっている」ことを意味します。
論文の
「ステップごとの情報蓄積仮説(SIA)」とは、まさにこの「正しい思考プロセスでは、一歩一歩進むごとに『正解に関する情報』が確実に蓄積され、迷いが減っていく」**というルールのことです。


🎓 なぜ AI はこのルールを覚えるのか?

AI は、人間が書いた「正解への思考プロセス(チャットや解説)」を大量に学習します。

  • 教師あり学習(SFT): 人間が「まず A を考え、次に B を考え、最後に C が正解だ」と書くのを真似します。
  • 強化学習(RL): 「正解にたどり着けたらご褒美、間違ったら罰」というゲームをさせます。

この学習プロセスを通じて、AI は**「正解にたどり着くためには、思考の過程で『迷い』を段階的に減らしていく必要がある」というパターンを無意識に学習してしまうのです。
つまり、
「迷いが減る」という内部のサインは、AI が「正解への道筋」を正しくたどっている証拠**になるのです。


🔍 論文が見つけた「正解のサイン」

この仮説(SIA)が成り立っている AI では、以下のような特徴的な動きが見られます。

  1. 早期のロックイン(Early Lock-in):
    正解の道筋では、思考の序盤で既に「正解に近い方向」に迷いが減り始めます。
    • 例: 問題文を読み終えた段階で、すでに「これは算数の問題だ」と絞り込めている。
  2. 飽和(Saturation):
    正解に近づくと、迷いは「ゼロ」に近づき、それ以上減らなくなります( plateau/プラトー)。
    • 例: 「もう答えは 42 だと確定した」という状態で、これ以上考え直しても変化しない。
  3. 失敗のパターン:
    間違った AI や、正解にたどり着けない AI は、迷いが減っても「正解とは違う方向」へ向かっていたり、迷いが減ったかと思えば急に増えたり(行き詰まり)、最後も「ゼロ」にならずに曖昧なまま終わったりします。

💡 この発見の意義

この論文は、単に「AI が賢くなった」というだけでなく、**「AI の『迷い(エントロピー)』を監視すれば、それが正解かどうかをリアルタイムで予測できる」**という理論的な根拠を示しました。

  • 実用的なメリット:
    • AI が「迷い」を減らさずに堂々と間違った答えを言い始めたら(ハルシネーション)、すぐに止めることができる。
    • AI が正解に近づいているか、行き詰まっているかを、答えが出る前に察知できる。

🏁 まとめ

この論文は、**「AI が正解を導き出すとき、その思考の過程で『迷い』が減っていくのは、単なる偶然ではなく、AI が正解への情報を一歩ずつ積み上げているから」**と説明しました。

まるで、**「正しい道を進む人は、足跡(情報)を残しながら迷いを減らしていくが、間違った道を行く人は迷いを減らしても目的地には着かない」**という、AI 版の「道案内の法則」を見つけたようなものです。これにより、AI の思考プロセスをより深く理解し、制御できるようになるでしょう。

このような論文をメールで受け取る

あなたの興味に合わせた毎日または毎週のダイジェスト。Gistまたは技術要約を、あなたの言語で。

Digest を試す →