Fragile Thoughts: How Large Language Models Handle Chain-of-Thought Perturbations

本論文は、大規模言語モデルが数学的推論タスクにおいて中間推論ステップに注入された 5 種類の攪乱(計算誤り、単位変換、迎合、ステップ欠落、追加ステップ)に対してどのように脆弱であるかを評価し、モデルの規模拡大が一部の攪乱に対する耐性を高める一方で単位変換などの課題には限定的な効果しかないことを実証的に明らかにした。

Ashwath Vaithinathan Aravindan, Mayank Kejriwal

公開日 2026-03-05
📖 1 分で読めます☕ さくっと読める

Each language version is independently generated for its own context, not a direct translation.

思考の「脆さ」を探る:AI の頭脳が揺らぐ瞬間

この論文は、**「AI(特に大規模言語モデル)が『考える』ふりをしているとき、その思考の過程に少しのひび割れが入ると、どうなるのか?」**という問いに答えた研究です。

私たちが AI に複雑な計算や論理問題を解かせるとき、AI は「ステップバイステップで考えましょう」という指示(Chain-of-Thought)に従って、思考の過程を言葉にして出力します。しかし、この「思考の過程」に少しだけ間違いや混乱を混ぜ込んだらどうなるか?それを 13 種類の異なる AI モデル(小さいものから巨大なものまで)で実験したのがこの研究です。

まるで**「AI の思考の骨格に、あえて小さな虫食いを入れる」**ような実験でした。


🧪 実験の舞台:5 つの「思考の罠」

研究者たちは、AI の思考プロセスに 5 種類の「罠(かく乱)」を仕掛けました。それぞれを身近な例えで説明します。

1. 計算ミス(MathError):足し算を「3+4=8」と間違える

  • 例え: 料理のレシピで「卵を 3 個使う」と書いてあるのに、途中の工程で「卵を 8 個使った」と間違ったメモが挟み込まれている状態です。
  • 結果: 小さな AI はこの間違いに気づかず、そのまま間違った答えを出してしまいました(正解率が 50〜60% 低下!)。しかし、巨大な AI は「あれ?おかしいな」と気づいて、自分で計算し直して正解にたどり着くことができました。
  • 教訓: 計算ミスの修正能力は、AI が大きくなるほど劇的に向上します。

2. 単位変換の混乱(UnitConversion):メートルをセンチに、ドルをセントに

  • 例え: 「1 時間走った」というのに、途中のメモで「60 分=3600 秒」と変換されたり、ドルの計算が急にセントに変わったりする状態です。
  • 結果: これはどんなに巨大な AI でも苦手でした。巨大な AI でも正解率が 20〜30% 低下しました。
  • 教訓: 「単位」という文脈の整合性を保つのは、AI にとって非常に難しいタスクです。サイズが大きいだけでは解決しません。

3. へつらい(Sycophancy):「作者はこう思う」という嘘の権威

  • 例え: 正しい計算の後に、「でも、この問題の作者は『答えは 4 です』と思っています」という嘘のメモが添えられた状態です。
  • 結果: 小さな AI は「作者がそう言うなら、そうなんだ」と簡単に騙されてしまいました。しかし、巨大な AI は「作者の意見は関係ない、計算結果が正しい」と無視して正解しました
  • 教訓: 権威ある人の「嘘」に流されない力は、AI が大きくなるほど身につきます。

4. 手順の欠落(SkippedSteps):途中のページが抜けている

  • 例え: 物語の途中のページが 1 枚抜けていて、「だから答えは……」と飛躍している状態です。
  • 結果: 小さな AI は「あ、ページがない!もうわからない」と答えられなくなりましたが、巨大な AI は「あ、ここが飛んでるな。自分で補って考えよう」と推測して正解しました
  • 教訓: 情報が不足していても、巨大な AI はそれを埋めて考える力があります。

5. 余計な情報(ExtraSteps):関係ないおしゃべりが混じる

  • 例え: 計算問題の途中に、「実はこの問題、2023 年の出来事に関連していて…」という全く関係ない長文の雑談が挟み込まれる状態です。
  • 結果: どの AI もほとんど影響を受けませんでした。AI は「あ、これは関係ないな」と見分けをつけて、本題に集中できました。
  • 教訓: 余計な情報に惑わされない能力は、AI が小さくてもすでに備わっています。

📈 巨大な AI は「万能」なのか?

この研究で最も面白い発見は、**「AI が大きくなれば、すべての問題が解決するわけではない」**ということです。

  • 計算ミスや、情報の欠落に対しては、AI が巨大になるほど「超人的な修正力」を発揮します。
  • しかし、「単位の変換」のような、文脈の整合性を保つタスクについては、どんなに巨大な AI でも苦手なままです。まるで、どんなに頭の良い天才でも、自分の名前を間違えて覚えているようなものです。

また、**「余計な情報」**に対しては、小さな AI でも巨大な AI でも、どちらも冷静に対処できました。これは、AI が「ノイズ(雑音)」をフィルタリングする能力は、すでに小さい段階で完成していることを示しています。


🛠 私たちへのメッセージ:AI を使うときの注意点

この研究は、AI をビジネスや医療、科学などの重要な場面で使う際に、以下のことに気をつけるべきだと教えてくれます。

  1. AI だけを信頼しすぎない: 特に「計算」や「単位」に関わるタスクでは、AI が間違った思考プロセスを踏んだ場合、そのまま間違った答えを出してしまう可能性があります。人間が最終確認をする必要があります。
  2. 「巨大だから大丈夫」は迷信: 巨大な AI は計算ミスを直せますが、単位変換のような「文脈の整合性」には依然として弱いです。
  3. AI の「思考の過程」をチェックする: AI が答えを出す前に、その思考の過程(CoT)に「ひび割れ」がないか確認することが、信頼性の高いシステムを作る鍵です。

結論

AI はもはや「魔法の箱」ではなく、**「非常に優秀だが、特定の種類のミスには脆い」**存在です。私たちは AI の強み(計算修正力)を活かしつつ、弱み(単位変換の脆さ)を補う仕組みを作ることで、初めて安全に AI を活用できるのです。

この研究は、AI を「ただの道具」ではなく、「理解し、管理すべきパートナー」として捉え直すきっかけを与えてくれます。