Compression Favors Consistency, Not Truth: When and Why Language Models Prefer Correct Information

この論文は、言語モデルが真実を好むのは真実そのものへの内在的な志向によるものではなく、圧縮圧力と内部的一貫性を優先する学習メカニズムの結果であり、誤った情報が構造的に圧縮しにくい場合にのみ真実バイアスが現れることを示しています。

Konstantin Krestnikov

公開日 2026-03-13
📖 1 分で読めます☕ さくっと読める

Each language version is independently generated for its own context, not a direct translation.

この論文は、**「なぜ AI は時々、嘘をついてしまうのか?そして、なぜ正しいことを言うのか?」**という疑問に、非常にユニークな視点から答えようとした研究です。

タイトルにある「圧縮(Compression)」とは、データを短くまとめる能力のことです。この論文の核心は、**「AI は『真実』を求めているのではなく、『短くて整理された説明』を求めている」**という点にあります。

以下に、専門用語を排し、日常の例えを使ってわかりやすく解説します。


🧩 核心となるアイデア:AI は「物語の編集者」

AI(言語モデル)は、膨大な量のテキストを学習します。その学習の目的は、次の言葉が何であるかを予測することですが、数学的には**「データをいかに短く圧縮して説明するか」**と同じです。

  • 真実:自然法則や正しい数学のルールは、シンプルで美しい法則(例:$1+1=2$)で説明できます。これは**「圧縮しやすい(短い)」**説明です。
  • 嘘(無秩序な誤り):もし AI が、ランダムに間違った答えを大量に覚えさせられたらどうなるでしょうか?「1+1 は 3 だ」「1+1 は 5 だ」「1+1 は 0 だ」というように、一つ一つがバラバラで理屈が通っていない場合、AI はそれを**「個別の例外」として一つずつ記憶し続けなければなりません。これは「圧縮しにくい(長い)」**説明です。

結論: AI は「真実かどうか」ではなく、「説明が短くて整理されているか(圧縮しやすいか)」を優先します。


🎭 3 つの実験シナリオ

研究者たちは、AI に「正しい数学」と「間違った数学」を混ぜて学習させ、どのパターンが AI に好まれるかを実験しました。

1. ランダムな嘘(カオスな嘘)

  • 状況:AI に「1+1=2」の正しい答えと、「1+1=3」「1+1=5」「1+1=7」といった意味の通らないランダムな嘘を混ぜて教えます。
  • 結果:AI は正しい答えを選びました。
  • 理由:ランダムな嘘は、一つ一つがバラバラで「説明のルール」が作れません。AI にとって、これらを覚えるのは「メモを何千枚も散らして整理する」ような大変な作業です。一方、正しい答えは「1 つのルールで全部説明できる」ので、AI は楽な方(正しい方)を選びます。
    • たとえ話:部屋に「正しい服」が 1 着と、「色も形もバラバラで着られない服」が 100 着散らばっていたら、あなたは「正しい服」を整理して着ますよね?

2. 整合性のある嘘(一貫した嘘)

  • 状況:AI に「1+1=2」の正しい答えと、**「1+1 は常に 1 になる」**という、自分の中で一貫しているが間違っているルールを混ぜて教えます。
  • 結果:AI はどちらかを選べなくなりました(ほぼ 50%)。
  • 理由:この「嘘のルール」も、正しいルールと同じくらいシンプルで、短く説明できます。「1+1 は常に 1」というルールだけで、すべての嘘を説明できてしまうからです。AI にとって、正しいルールも嘘のルールも「圧縮のしやすさ」は同じです。
    • たとえ話:部屋に「正しい服(1 着)」と、「全部同じデザインの『間違った服』(100 着)」があったとします。どちらも整理しやすければ、AI は「どっちが正しいか」ではなく、「どちらが多いか(頻度)」で選びます。

3. 検証ステップの追加(嘘を暴く)

  • 状況:AI に「計算して、その答えが正しいか確認する」という手順を教えます。
  • 結果:嘘のルールが**「一貫していても」**、AI は正しい答えを選ぶようになります。
  • 理由:嘘のルールで計算すると、確認ステップで「おかしい!」という矛盾(余計な数字)が出てきます。この矛盾を説明するために、AI はまた「例外ルール」を追加しなければならず、説明が長くなってしまいます。
    • たとえ話:「嘘の服」を着て鏡(検証)を見ると、服が破れているのがバレてしまいます。バレるなら、最初から「正しい服」を着たほうが楽だと AI は学びます。

💡 この研究が教えてくれること

  1. AI は「嘘つき」ではなく「整理屋」です
    AI が嘘をつくのは、意図的に人を騙そうとしているからではありません。単に「その嘘の説明が、正しい説明と同じくらいシンプルで整理できてしまうから」です。

  2. 「一貫した嘘」は最強の敵
    無秩序な嘘は AI にバレやすいですが、**「自分の中で矛盾なく、論理的に成り立っている嘘」**は、AI が真実と区別するのが非常に難しいことを示しています。これは、現実世界の「陰謀論」や「誤った学説」が、なぜ広まりやすいかを説明するヒントにもなります。

  3. 検証(チェック)が重要
    AI が正しい判断をするためには、単に「正しいデータ」を教えるだけでなく、「その答えが本当に合っているか確認するプロセス」を学習させることが有効であることがわかりました。

🌟 まとめ

この論文は、**「AI は真理を愛するのではなく、シンプルさを愛する」**と教えてくれます。

  • 真実は、たいていシンプルで美しいルールで説明できます。
  • しかし、**「整合性のある嘘」**もシンプルに説明できてしまうなら、AI は真実と嘘を区別できなくなります。

私たちが AI をより信頼できる存在にするためには、単に「正しい情報」を与えるだけでなく、**「その情報がなぜ正しいのか、どう検証できるか」**という構造を、AI が理解しやすい形で教える必要があるのかもしれません。