Markovian Generation Chains in Large Language Models

本論文は、大規模言語モデルによる反復推論をマルコフ連鎖として定義し、温度パラメータや初期入力などの要因に応じて文の多様性が増加または減少する動的な収束挙動を明らかにしたものである。

Mingmeng Geng, Amr Mohamed, Guokan Shang, Michalis Vazirgiannis, Thierry Poibeau

公開日 2026-03-13
📖 1 分で読めます☕ さくっと読める

Each language version is independently generated for its own context, not a direct translation.

この論文は、**「AI が書いた文章を、また別の AI(または同じ AI)に直させ、その結果をまた直させる……という作業を繰り返すと、文章はどうなるのか?」**という面白い疑問に答えた研究です。

タイトルにある「マルコフ生成連鎖」という難しそうな言葉は、**「次の結果は、今の結果だけを見て決まる」**という仕組みを指しています。過去の長い歴史は忘れ、今目の前にある文章だけを見て「次はどうしよう」と決めるのです。

この研究を、3 つの身近な例え話で説明します。

1. 「伝言ゲーム」の極限版

想像してみてください。あなたが「今日は晴れだ」という一言を、AI に「もっとおしゃれに言い換えて」と頼みます。AI は「快晴の空が広がっています」と返します。
次に、その「快晴の空が広がっています」という文章を、また別の AI に「もっとシンプルに」と頼みます。
これを 50 回、100 回と繰り返したとき、どうなるでしょうか?

  • パターン A(貪欲な解き方):
    AI が「一番確実で正しい答え」を選ぶ設定(貪欲デコーディング)だと、すぐに**「同じ言葉の繰り返し」「短いループ」**に陥ってしまいます。

    • 例:「A」→「B」→「A」→「B」→「A」……
    • これは、「伝言ゲーム」で、いつの間にか最初の言葉に戻ってしまい、その後も同じ言葉だけがぐるぐる回ってしまう状態に似ています。文章の多様性は失われ、すぐに固定化されます。
  • パターン B(ランダムな解き方):
    AI に「少しランダムに、違う言い回しも探して」という設定(サンプリング)だと、**「A」→「B」→「C」→「D」……**と、同じ言葉に戻らずに、ずっと新しい表現が生まれ続けます。

    • これは、「伝言ゲーム」が、参加者が毎回新しいアイデアを出し続けて、いつまでも終わらない物語になっていく状態です。

2. 「温度」が効くお茶

この研究で重要なのが**「温度(Temperature)」**というパラメータです。これは AI の「熱意」や「興奮度」のようなものです。

  • 温度が低い(冷たいお茶):
    AI は慎重になり、一番安全で確実な言葉を選びます。結果、すぐに「同じ言葉のループ」に陥りやすくなります。
  • 温度が高い(熱いお茶):
    AI は少し興奮して、普段選ばないような珍しい言葉も選びます。これにより、同じ言葉に戻るまでの時間が長くなり、文章がどんどん変化し続けます。

つまり、**「AI にどのくらい『遊び心』を持たせるか」**で、文章がすぐに固まるのか、それともずっと変化し続けるのかが決まるのです。

3. 「翻訳の往復運動」

もう一つの面白い実験は、**「英語→フランス語→英語」**と、言語を行き来させる実験です。
「今日は晴れ」を英語からフランス語に、そしてまた英語に戻す。これを繰り返すとどうなるか?

  • Google 翻訳のような堅実なサービス:
    ほぼ同じ意味の言葉に戻ります。安定していますが、変化はほとんどありません。
  • 最新の AI(LLM):
    最初は意味を保っていても、繰り返すうちに**「意味が少し歪んでいったり、全く違う表現になったり」します。
    これは、
    「電話回線が少しノイズ混じりで、何度も通話し続けると、最初の会話の内容がいつの間にか別の話に変わってしまう」**ような現象です。

この研究が教えてくれること

この論文の結論は、**「AI に文章を何度も直させると、文章は『固定化』するか『無限に変化』するか、そのどちらかになる」**ということです。

  • なぜ重要なのか?
    今、AI が書いた文章を人間が読み、それを AI がまた要約し、それをまた別の AI が翻訳する……という「AI と AI のやり取り」が増えています。
    もし、この連鎖が「固定化」してしまえば、世の中の情報が偏ってしまい、多様性が失われる危険があります。逆に、「無限に変化」しすぎると、元の意味が失われてしまうかもしれません。

まとめ:
この研究は、**「AI という『言葉の魔法使い』を、何度も同じ呪文(指示)で使い続けると、魔法が効かなくなったり、暴走したりする」**という現象を、数学的な「連鎖反応」として解明したものです。

私たちが AI を使うとき、**「同じ AI に何度も同じことを頼みすぎない」ことや、「AI の設定(温度)を適切に調整する」**ことが、情報の質を保つために重要だという、とても実用的なヒントを与えてくれます。