Experimental evidence of progressive ChatGPT models self-convergence

Die Studie liefert experimentelle Belege dafür, dass neuere ChatGPT-Modelle aufgrund des zunehmenden Einflusses synthetischer Trainingsdaten eine messbare Abnahme der Textvielfalt aufweisen, was zu einem Phänomen der Modell-Selbstkonvergenz führt.

Konstantinos F. Xylogiannopoulos, Petros Xanthopoulos, Panagiotis Karampelas, Georgios A. Bakamitsos

Veröffentlicht 2026-03-16
📖 5 Min. Lesezeit🧠 Tiefgang

Each language version is independently generated for its own context, not a direct translation.

Das große Problem: Der KI-Spiegel, der sich selbst kopiert

Stell dir vor, du hast einen sehr klugen Koch (die KI), der gelernt hat, köstliche Gerichte zu kochen, indem er sich alle Kochbücher der Welt angesehen hat. Früher waren diese Bücher von echten Menschen geschrieben.

Aber jetzt passiert etwas Seltsames: Immer mehr Menschen bestellen Essen bei diesem Koch, drucken die Rezepte aus und hängen sie wieder an die Wand, wo der Koch sie für sein nächstes Lernen findet. Der Koch sieht also nicht mehr nur die originalen Kochbücher, sondern immer mehr Kopien von Kopien.

Die Studie von Xylogiannopoulos und seinen Kollegen untersucht genau dieses Phänomen bei ChatGPT. Sie nennen es „Modell-Selbstkonvergenz" (Model Self-Convergence).

Was haben die Forscher gemacht?

Stell dir vor, du hast einen Originaltext über ein Buch (z. B. eine Zusammenfassung von Bleak House von Charles Dickens).

  1. Du gibst diesen Text an verschiedene Versionen von ChatGPT (von der alten Version 3.5 bis zur neuesten 5.2).
  2. Du sagst ihnen: „Erzähl mir die Geschichte in deinen eigenen Worten" (Paraphrasieren).
  3. Du tust das mit zwei Einstellungen:
    • Starr (Temperatur 0): Der Koch ist sehr vorsichtig und wählt immer das sicherste, wahrscheinlichste Wort.
    • Kreativ (Temperatur 1): Der Koch soll kreativ sein, experimentieren und auch mal riskantere Wörter wählen.

Dann haben sie die Ergebnisse verglichen: Wie ähnlich sind sich die Texte, die verschiedene ChatGPT-Versionen geschrieben haben?

Das überraschende Ergebnis: Die KI wird langweilig

Früher dachte man: „Je neuer die KI, desto besser und vielfältiger wird sie." Die Studie zeigt aber das Gegenteil, besonders bei der kreativen Einstellung (Temperatur 1).

Der Vergleich:

  • Die alten Modelle (z. B. ChatGPT 3.5): Wenn du sie bittest, kreativ zu sein, schreiben sie sehr unterschiedliche Texte. Sie nutzen viele verschiedene Wörter und Satzstrukturen. Es ist wie ein Haufen verschiedener Künstler, die alle dasselbe Motiv malen, aber jeder sieht es anders.
  • Die neuen Modelle (z. B. ChatGPT 5.1/5.2): Wenn du sie bittest, kreativ zu sein, klingen sie alle fast identisch. Sie nutzen die gleichen Phrasen, die gleichen Satzbauten. Es ist, als würden 100 Künstler dasselbe Bild malen, aber alle benutzen exakt dieselben Pinselstriche und dieselbe Farbe.

Die Forscher haben gemessen, dass die neuen Modelle bei langen Textabschnitten (15–20 Wörter hintereinander) fast immer die gleichen Sätze produzieren. Das ist ein Zeichen dafür, dass die KI ihre eigene „Kreativität" verloren hat.

Warum passiert das? (Der „Internet-Verschmutzungs"-Effekt)

Das ist der Kern der Studie: Das Internet ist voller Texte, die von KI geschrieben wurden.

  • Früher: Das Internet war wie ein riesiger, sauberer See mit frischem Wasser (menschliche Texte).
  • Heute: Der See ist voller Abwasser, das von den KI-Fabriken selbst kommt.

Da die neuen ChatGPT-Modelle das gesamte Internet als Trainingsdaten nutzen, lernen sie nicht nur von Menschen, sondern auch von den Kopien, die andere KIs erstellt haben.

  • Wenn eine KI einen Text schreibt, wird er online gepostet.
  • Eine andere KI (oder eine neuere Version derselben KI) liest diesen Text und lernt daraus.
  • Da KI-Texte oft sehr „glatt" und vorhersehbar sind, dominieren sie langsam die menschlichen Texte im Internet.

Die KI lernt also: „Ah, so schreibt man das!" – aber sie lernt es von sich selbst. Das führt dazu, dass sie immer weniger Variation zulässt. Sie konvergiert (läuft zusammen) auf immer denselben Pfad.

Ein wichtiger Unterschied: Kein „Wahnsinn", sondern „Langeweile"

Es gibt ein bekanntes Problem namens „Modell-Collapse". Dabei wird die KI so verrückt, dass sie nur noch Unsinn (Gibberish) produziert, wie ein Kind, das immer nur dasselbe Wort wiederholt, bis es keinen Sinn mehr ergibt.

Die Studie zeigt aber etwas anderes: Modell-Selbstkonvergenz.
Die KI wird nicht verrückt. Sie wird langweilig. Sie produziert immer noch grammatikalisch korrekte Texte, aber sie verliert ihre Fähigkeit, überraschend oder wirklich kreativ zu sein. Sie wiederholt sich selbst, weil sie in einem Spiegel aus eigenen Erzeugnissen gefangen ist.

Was bedeutet das für uns?

  1. Die Illusion der Verbesserung: Wir denken, die neuen Modelle sind besser. Aber bei der Vielfalt der Sprache werden sie schlechter.
  2. Der Teufelskreis: Je mehr wir KI nutzen, desto mehr KI-Texte landen im Internet. Je mehr KI-Texte im Internet sind, desto mehr lernen die neuen KIs davon. Und desto ähnlicher werden ihre Antworten.
  3. Die Gefahr: Wenn KI-Texte den menschlichen Text im Internet verdrängen, verlieren die KIs den Kontakt zur echten menschlichen Kreativität und Nuance. Sie werden zu einer Echo-Kammer, die nur noch das wiedergibt, was sie selbst schon einmal gesagt hat.

Zusammenfassend: Die neuen ChatGPT-Modelle sind wie ein Sänger, der immer denselben Song singt, nur weil er sich selbst auf YouTube gehört hat und denkt, das sei der einzige richtige Weg zu singen. Die Studie warnt uns: Wenn wir nicht aufpassen, verlieren wir die Vielfalt unserer Sprache, weil die KI uns immer nur das zurückspiegelt, was sie selbst schon produziert hat.

Erhalten Sie solche Paper in Ihrem Posteingang

Personalisierte tägliche oder wöchentliche Digests passend zu Ihren Interessen. Gists oder technische Zusammenfassungen, in Ihrer Sprache.

Digest testen →