Each language version is independently generated for its own context, not a direct translation.
Immagina che ChatGPT e i suoi fratelli più grandi siano come dei cuochi straordinari che hanno imparato a cucinare leggendo milioni di libri di ricette (i dati di internet) scritti da esseri umani.
Il Problema: La "Cucina che si mangia da sola"
Per anni, questi cuochi hanno cucinato usando solo ingredienti umani. Ma poi è successo qualcosa di strano: la gente ha iniziato a usare i cuochi robot per scrivere le proprie ricette e a pubblicarle su internet.
Ora, quando i nuovi cuochi robot (le versioni più recenti di ChatGPT) vanno a cercare nuovi ingredienti per imparare, trovano un internet inquinato. Invece di trovare solo ricette umane originali, trovano un mare di ricette scritte da altri robot, che a loro volta hanno copiato ricette scritte da altri robot, e così via.
È come se un cuoco, invece di andare al mercato a comprare verdure fresche, iniziasse a cucinare usando solo i resti di piatti già cucinati da altri cuochi robot.
Cosa hanno scoperto gli scienziati?
Gli autori di questo studio hanno fatto un esperimento curioso. Hanno chiesto a diverse versioni di ChatGPT (dalla "vecchia" alla "nuova") di riscrivere (parafrasare) lo stesso testo umano, chiedendo loro di essere il più creativi e vari possibile (usando un'impostazione chiamata "temperatura 1", che è come chiedere al cuoco di "giocare" con gli ingredienti).
Ecco cosa è emerso, usando una metafora:
- Le vecchie versioni (es. ChatGPT 3.5): Se chiedevi loro di riscrivere una storia 5 volte, ottenevi 5 storie diverse, come se avessi 5 amici diversi che raccontano la stessa avventura con parole e stili differenti. C'era varietà.
- Le nuove versioni (es. ChatGPT 5 e 5.2): Se chiedevi la stessa cosa, ottenevi 5 storie che erano quasi identiche. Sembra che tutti e 5 gli amici avessero copiato la stessa frase da un unico libro di testo.
Il Concetto Chiave: "Auto-Convergenza"
Il paper chiama questo fenomeno "Auto-Convergenza" (o Model Self-Convergence).
Immagina un gruppo di persone che si incontrano ogni giorno per parlare.
- All'inizio, ognuno ha idee diverse e parla in modo unico.
- Ma se passano tutto il giorno a leggere solo i messaggi che si sono scambiati tra loro, ignorando il mondo esterno, iniziano a usare le stesse parole, le stesse frasi fatte e lo stesso tono di voce.
- Alla fine, non riescono più a distinguersi l'uno dall'altro. Non sono più "diversi", sono diventati un eco della loro stessa voce.
Questo è quello che sta succedendo a ChatGPT. Più le nuove versioni vengono addestrate su dati che contengono testi generati da AI, più perdono la capacità di essere creativi e vari. Invece di inventare, tendono a ripetersi.
Perché è pericoloso?
Il paper avverte che questo è un circolo vizioso:
- L'AI scrive testi.
- Questi testi finiscono su internet.
- L'AI legge quei testi per imparare.
- L'AI diventa meno creativa e ripete sempre le stesse cose.
- Il ciclo ricomincia, peggiorando la qualità.
Se questo continua, l'AI rischia di diventare noiosa e ripetitiva, incapace di imparare nuove cose dagli esseri umani perché è troppo occupata a "guardarsi allo specchio" e copiare se stessa.
In sintesi
Il paper ci dice che ChatGPT si sta "ammalando" di noia. Non perché i programmatori abbiano sbagliato il codice, ma perché l'ambiente in cui impara (internet) è stato "inquinato" dai suoi stessi output. Le versioni più recenti, paradossalmente, sono meno capaci di essere creative e diverse rispetto alle versioni vecchie, perché si stanno nutrendo di un "brodo" fatto di se stesse.
È come se un artista smettesse di guardare il mondo reale e iniziasse a copiare solo i quadri che ha già dipinto lui stesso: alla fine, il suo stile diventa statico, ripetitivo e perde la sua magia originale.
Ricevi articoli come questo nella tua casella di posta
Digest giornalieri o settimanali personalizzati in base ai tuoi interessi. Riassunti Gist o tecnici, nella tua lingua.