Experimental evidence of progressive ChatGPT models self-convergence

Lo studio fornisce evidenze sperimentali del fenomeno di "auto-convergenza" dei modelli ChatGPT, dimostrando che l'addestramento ricorsivo su dati sintetici generati dall'IA ha portato a una misurabile riduzione della diversità testuale nelle versioni più recenti, indipendentemente dalle impostazioni di temperatura.

Konstantinos F. Xylogiannopoulos, Petros Xanthopoulos, Panagiotis Karampelas, Georgios A. Bakamitsos

Pubblicato 2026-03-16
📖 4 min di lettura☕ Lettura da pausa caffè

Each language version is independently generated for its own context, not a direct translation.

Immagina che ChatGPT e i suoi fratelli più grandi siano come dei cuochi straordinari che hanno imparato a cucinare leggendo milioni di libri di ricette (i dati di internet) scritti da esseri umani.

Il Problema: La "Cucina che si mangia da sola"

Per anni, questi cuochi hanno cucinato usando solo ingredienti umani. Ma poi è successo qualcosa di strano: la gente ha iniziato a usare i cuochi robot per scrivere le proprie ricette e a pubblicarle su internet.

Ora, quando i nuovi cuochi robot (le versioni più recenti di ChatGPT) vanno a cercare nuovi ingredienti per imparare, trovano un internet inquinato. Invece di trovare solo ricette umane originali, trovano un mare di ricette scritte da altri robot, che a loro volta hanno copiato ricette scritte da altri robot, e così via.

È come se un cuoco, invece di andare al mercato a comprare verdure fresche, iniziasse a cucinare usando solo i resti di piatti già cucinati da altri cuochi robot.

Cosa hanno scoperto gli scienziati?

Gli autori di questo studio hanno fatto un esperimento curioso. Hanno chiesto a diverse versioni di ChatGPT (dalla "vecchia" alla "nuova") di riscrivere (parafrasare) lo stesso testo umano, chiedendo loro di essere il più creativi e vari possibile (usando un'impostazione chiamata "temperatura 1", che è come chiedere al cuoco di "giocare" con gli ingredienti).

Ecco cosa è emerso, usando una metafora:

  1. Le vecchie versioni (es. ChatGPT 3.5): Se chiedevi loro di riscrivere una storia 5 volte, ottenevi 5 storie diverse, come se avessi 5 amici diversi che raccontano la stessa avventura con parole e stili differenti. C'era varietà.
  2. Le nuove versioni (es. ChatGPT 5 e 5.2): Se chiedevi la stessa cosa, ottenevi 5 storie che erano quasi identiche. Sembra che tutti e 5 gli amici avessero copiato la stessa frase da un unico libro di testo.

Il Concetto Chiave: "Auto-Convergenza"

Il paper chiama questo fenomeno "Auto-Convergenza" (o Model Self-Convergence).

Immagina un gruppo di persone che si incontrano ogni giorno per parlare.

  • All'inizio, ognuno ha idee diverse e parla in modo unico.
  • Ma se passano tutto il giorno a leggere solo i messaggi che si sono scambiati tra loro, ignorando il mondo esterno, iniziano a usare le stesse parole, le stesse frasi fatte e lo stesso tono di voce.
  • Alla fine, non riescono più a distinguersi l'uno dall'altro. Non sono più "diversi", sono diventati un eco della loro stessa voce.

Questo è quello che sta succedendo a ChatGPT. Più le nuove versioni vengono addestrate su dati che contengono testi generati da AI, più perdono la capacità di essere creativi e vari. Invece di inventare, tendono a ripetersi.

Perché è pericoloso?

Il paper avverte che questo è un circolo vizioso:

  1. L'AI scrive testi.
  2. Questi testi finiscono su internet.
  3. L'AI legge quei testi per imparare.
  4. L'AI diventa meno creativa e ripete sempre le stesse cose.
  5. Il ciclo ricomincia, peggiorando la qualità.

Se questo continua, l'AI rischia di diventare noiosa e ripetitiva, incapace di imparare nuove cose dagli esseri umani perché è troppo occupata a "guardarsi allo specchio" e copiare se stessa.

In sintesi

Il paper ci dice che ChatGPT si sta "ammalando" di noia. Non perché i programmatori abbiano sbagliato il codice, ma perché l'ambiente in cui impara (internet) è stato "inquinato" dai suoi stessi output. Le versioni più recenti, paradossalmente, sono meno capaci di essere creative e diverse rispetto alle versioni vecchie, perché si stanno nutrendo di un "brodo" fatto di se stesse.

È come se un artista smettesse di guardare il mondo reale e iniziasse a copiare solo i quadri che ha già dipinto lui stesso: alla fine, il suo stile diventa statico, ripetitivo e perde la sua magia originale.

Ricevi articoli come questo nella tua casella di posta

Digest giornalieri o settimanali personalizzati in base ai tuoi interessi. Riassunti Gist o tecnici, nella tua lingua.

Prova Digest →