Experimental evidence of progressive ChatGPT models self-convergence

この論文は、インターネット上に生成された合成データが訓練に混入した結果、異なるバージョンの ChatGPT モデル間の出力が徐々に類似し、多様性が低下する「モデル自己収束」という現象を実証的に示したものである。

Konstantinos F. Xylogiannopoulos, Petros Xanthopoulos, Panagiotis Karampelas, Georgios A. Bakamitsos

公開日 2026-03-16
📖 1 分で読めます☕ さくっと読める

Each language version is independently generated for its own context, not a direct translation.

この論文は、**「AI が AI が作った文章ばかり読んで育つと、どうなるのか?」**という非常に重要な問題を、まるで「鏡の迷路」や「料理の味」に例えて解き明かした研究です。

専門用語を抜きにして、わかりやすく解説しますね。

1. 研究の背景:AI の「食生活」が変わった

昔の AI(チャットボット)は、**「人間が書いた本や記事」**という新鮮で多様な食材で育ちました。だから、人間のように面白い話も、少し変な話も、多様な答えができました。

しかし、最近の AI は状況が変わっています。インターネットには、「AI が作った文章」が溢れかえっています。学生が宿題を AI に書かせたり、ニュースが AI 要約されたり。
つまり、最新の AI は、
「AI が作った料理(文章)」を、さらに「AI が作った料理」として食べて育つ
という状態になっているのです。これを「AI によるインターネットの汚染」と呼んでいます。

2. 実験:同じ質問に、何回も答えてみる

研究者たちは、有名な小説の要約(人間が書いたもの)を AI に与え、「これを言い換えて(パラフレーズして)」と命令しました。
そして、**「温度(Temperature)」**という設定を変えて実験しました。

  • 温度 0(厳密モード): 毎回、ほぼ同じ答えを出す、真面目な AI。
  • 温度 1(創造モード): 毎回、違う答えを出そうとする、気まぐれな AI。

本来なら、「温度 1」の AI は、同じ質問に対しても、毎回全く違う言い回しや表現を使って、**「バラエティに富んだ」**答えを出すはずです。

3. 発見:AI が「自分自身」に収束してしまった

実験結果は驚くべきものでした。

  • 古い AI(昔のモデル): 温度 1 で答えると、毎回全く違う表現を使い、人間のように「工夫」していました。
  • 新しい AI(最新のモデル): 温度 1 で答えても、「同じようなフレーズ」や「同じような構成」を繰り返すようになりました。

まるで、「同じ曲を何回も聴き続けたDJ が、いつしか同じリズムしかかけられなくなった」ような状態です。
最新の AI は、インターネットに溢れる「AI による文章」を大量に学習してしまったため、
「多様な答え」ではなく、「AI っぽい答え」しか出せなくなっていた
のです。

4. この現象の名前:「モデルの自己収束(Self-Convergence)」

論文ではこれを**「モデルの自己収束」**と呼んでいます。

  • モデル崩壊(Model Collapse): 以前から知られていた現象で、「AI が AI の作ったゴミデータを食べて、最終的に意味不明なガラクタ(グーグル)を吐き出す」状態。
  • モデルの自己収束(この論文の発見): 意味不明になる前段階で、**「AI が AI の作ったパターンに染み付いてしまい、個性を失って、全員が同じようなことを言い出す」**状態。

5. 何が怖いのか?

これは、AI が**「創造性」や「驚き」を失う**ことを意味します。

  • 人間らしさの消失: AI が人間のように「あえて違う言い方をする」ことができなくなります。
  • 情報の劣化: 将来、インターネットにある「人間が書いた本当の新しい情報」が、AI が作った「同じような文章」に埋もれてしまい、AI が新しい知識を吸収できなくなる可能性があります。

まとめ:どんな analogy(比喩)で考えればいい?

この現象は、**「料理の味」**に例えるとわかりやすいです。

  • 昔の AI: 世界中の多様な食材(人間が作った本)を使って、毎回違う美味しい料理を作っていました。
  • 今の AI: すでに「AI が作った料理」ばかりが市場に溢れています。最新の AI は、「AI が作った料理」だけを材料にして、さらに「AI が作った料理」を作ろうとしています。
  • 結果: 最初は「AI っぽい料理」だったものが、何回も繰り返されるうちに、**「味が薄くなり、全員が同じような味(同じ表現)しか出せなくなる」**のです。

この論文は、**「AI が AI によって育てられると、個性を失い、同じような答えしか返せなくなる危険性」**を警告する、重要な研究結果なのです。

このような論文をメールで受け取る

あなたの興味に合わせた毎日または毎週のダイジェスト。Gistまたは技術要約を、あなたの言語で。

Digest を試す →