LLMs Faithfully and Iteratively Compute Answers During CoT: A Systematic Analysis With Multi-step Arithmetics

この論文は、大規模言語モデルが制御された算数タスクにおいて、推論チェーン(CoT)を生成する過程で逐次的に答えを計算しており、その生成された推論過程がモデルの内部計算を忠実に反映していることを実証しています。

Keito Kudo, Yoichi Aoki, Tatsuki Kuribayashi, Shusaku Sone, Masaya Taniguchi, Ana Brassard, Keisuke Sakaguchi, Kentaro Inui

公開日 2026-03-20
📖 1 分で読めます☕ さくっと読める

Each language version is independently generated for its own context, not a direct translation.

この論文は、**「AI(大規模言語モデル)が『思考の過程(CoT)』を本当に考えているのか、それとも『答えを先に知っていて、後から理由を捏造している』のか?」**という、とても面白い疑問に答えた研究です。

結論から言うと、**「AI は答えを先に知っていて、後から理由をつけているわけではありません。むしろ、思考の過程(CoT)を書きながら、その場で答えを計算している」**ことがわかりました。

これをわかりやすく説明するために、いくつかの比喩を使って解説しますね。


1. 研究の背景:「嘘をついている」かもしれない AI

私たちが AI に「なぜその答えになったの?」と聞くと、AI は「まず A で、次に B で…」と詳しく説明してくれます(これを「思考の連鎖(Chain of Thought)」と呼びます)。

しかし、中には**「答えは最初から決まっていた。説明は、ただの『おまけ』として後から適当に作っただけ」**という可能性が疑われていました。

  • 悪い例(後付け): 料理の味見をせずに「塩味です」と言い、その後に「塩を入れたから塩味です」と説明する。
  • 良い例(本物): 塩を振りながら味見をして、「あ、塩味だ!」と気づき、その後に「塩を入れたから塩味です」と説明する。

この研究は、AI がどちらのパターンで動いているのかを、数学の問題を使って突き止めました。

2. 実験方法:AI の「脳内」を覗く透視カメラ

研究者たちは、AI の内部(隠れ層という部分)に**「線形プローブ(Linear Probes)」という「透視カメラ」**のようなものを設置しました。

  • 透視カメラの役割: AI が問題文を読んでいる最中や、答えを言い始める瞬間に、**「AI の頭の中に『答え』の情報がすでにクリアに浮かんでいるか?」**をチェックします。

実験の結果:答えは「途中」で生まれる

このカメラで見ると、以下のような現象が起きていることがわかりました。

  1. 問題文を読んでいる最中(思考開始前):

    • AI の頭の中は「答え」についてぼんやりとしています。透視カメラでは、答えが何なのかを正確に読み取れません。
    • 比喩: 料理のレシピ(問題文)を読んでいるだけで、まだ味見もしていない状態です。
  2. 思考の過程(CoT)を書いている最中:

    • AI が「まず B を計算して…」と書き始める瞬間、頭の中に「B の答え」がクリアに浮かび上がります。
    • さらに「次に A を計算して…」と進むと、「A の答え」もクリアになります。
    • 比喩: 料理をしながら味見をして、徐々に「あ、塩味だ」「あ、甘味だ」と味覚(答え)が確定していく状態です。

つまり、AI は「答えを先に知って説明している」のではなく、「説明(思考)を書き進める過程で、その場で答えを計算している」のです。

3. 因果関係の実験:「記憶」を差し替える

さらに、研究者たちは**「活性化パッチング(Activation Patching)」という、「AI の脳の一部を、別の問題の脳の一部と差し替える」**という大胆な実験もしました。

  • 実験: ある問題の「思考の過程(CoT)」の脳内データを、全く違う問題のデータに差し替えてみました。
  • 結果:
    • 問題文(入力)のデータを変えても、答えはほとんど変わりませんでした。
    • しかし、「思考の過程(CoT)」のデータを変えると、答えが劇的に変わってしまいました。

比喩:

  • 問題文(レシピ)を変えても、料理人の「味付けの記憶」が変わらなければ、料理の味(答え)は変わりません。
  • しかし、「味付けの記憶(思考過程)」を別のものに変えると、料理の味(答え)は完全に変わってしまいます。

これは、**「答えは、思考過程(CoT)によって決まっている」**ことを強く示しています。

4. 全体のまとめ:AI は「正直者」だった?

この研究からわかったことは、以下の通りです。

  • AI は「後付け」をしていない: 答えを先に決めてから、無理やり理由をつけているわけではありません。
  • 思考過程は「本物」: AI が出力する「思考の過程」は、単なる飾りではなく、**実際に計算が行われている「作業中のメモ」**そのものです。
  • 直近の情報が重要: AI は、直前に書いた思考(「B は 5 だ」)を頼りに、次の思考(「A は 1+5 だから 6 だ」)を導いています。

結論

この論文は、**「AI が『考えるふり』をしているのではなく、実際に『思考の過程』を通じて答えを導き出している」**ことを科学的に証明しました。

私たちが AI に「どうやってその答えに至ったの?」と尋ねたとき、AI が示してくれる思考の過程は、**「AI が実際に頭の中で行っている計算の記録」**だと考えて大丈夫だ、というのがこの研究の大きなメッセージです。

AI は、私たちが思っていたよりも、もっと「誠実」に、その場で考えているのかもしれませんね。