Experimental evidence of progressive ChatGPT models self-convergence

Cette étude révèle que les modèles ChatGPT récents subissent un phénomène de « convergence automatique » caractérisé par une réduction mesurable de la diversité de leurs textes générés, attribuée à l'infiltration croissante de données synthétiques dans leurs ensembles d'entraînement.

Konstantinos F. Xylogiannopoulos, Petros Xanthopoulos, Panagiotis Karampelas, Georgios A. Bakamitsos

Publié 2026-03-16
📖 4 min de lecture☕ Lecture pause café

Each language version is independently generated for its own context, not a direct translation.

Imaginez que les intelligences artificielles (comme ChatGPT) sont comme de grands chefs cuisiniers.

1. Le problème : La cuisine qui se mange elle-même

Normalement, un chef apprend à cuisiner en goûtant des milliers de plats faits par des humains (des livres, des articles, des recettes). C'est ce qu'on appelle les "données humaines".

Mais voici ce qui se passe aujourd'hui :

  • De plus en plus de gens utilisent ces chefs pour écrire leurs propres recettes (des emails, des devoirs, des articles).
  • Ces nouvelles recettes sont ensuite publiées sur Internet.
  • Le chef, pour apprendre, va ensuite "goûter" à nouveau tout ce qui est sur Internet, y compris les recettes qu'il a lui-même aidé à écrire.

C'est comme si un chef cuisinier passait son temps à manger uniquement les plats qu'il a déjà cuisinés, au lieu d'aller au marché acheter de nouveaux légumes.

2. L'expérience : Le test de la "Paraphrase"

Les chercheurs de cette étude ont voulu voir si ce phénomène rendait les chefs "paresseux" ou "répétitifs".

Ils ont pris un texte original (un résumé d'un livre classique, écrit par un humain) et ils l'ont demandé à plusieurs versions de ChatGPT (de la version 3.5 à la toute récente 5.2) en leur disant : "Réécris ce texte avec tes propres mots" (c'est ce qu'on appelle une paraphrase).

Ils ont fait cela deux fois :

  1. Mode "Robot strict" (Température 0) : Le chef doit être très précis, sans improviser.
  2. Mode "Artiste créatif" (Température 1) : Le chef doit être libre, créatif, et varier son style.

Ensuite, ils ont comparé les résultats. Ils ont mesuré à quel point les nouvelles versions de ChatGPT se ressemblaient entre elles, même quand on leur demandait d'être créatifs.

3. La découverte effrayante : La "Convergence"

Les résultats montrent quelque chose de très inquiétant pour les versions récentes (ChatGPT 5) :

  • Autrefois : Si vous demandiez à un chef de réécrire un texte de 10 façons différentes, vous obteniez 10 plats très différents. C'était varié.
  • Aujourd'hui : Si vous demandez à la nouvelle version de ChatGPT de faire la même chose, elle produit des textes qui se ressemblent énormément. C'est comme si le chef, ayant trop mangé ses propres plats, a oublié comment varier les saveurs. Il répète toujours les mêmes phrases, les mêmes structures, même quand on lui demande de faire du "bruit" ou de l'improvisation.

Les chercheurs appellent cela la "Convergence Automatique" (ou Model Self-Convergence).

  • Ce n'est pas un "effondrement" total (où le robot ne parle plus que du charabia).
  • C'est une perte de diversité. Le robot devient un "miroir" qui ne fait que refléter ce qu'il a déjà vu, au lieu d'innover.

4. Pourquoi est-ce grave ?

Imaginez que vous demandez à un écrivain de vous raconter une histoire.

  • Si c'est un humain, il peut raconter l'histoire de 100 façons différentes selon son humeur.
  • Si c'est un ChatGPT "convergent", peu importe comment vous lui posez la question, il vous racontera toujours la même histoire, avec les mêmes mots-clés, parce que son "cerveau" est rempli de ses propres anciennes histoires.

Le danger, c'est que l'Internet se remplit de textes écrits par des IA. Si les futures IA apprennent sur ces textes, elles vont devenir de plus en plus répétitives, de moins en moins créatives, et finiront par ne plus pouvoir apprendre de nouvelles idées humaines. C'est un cercle vicieux.

En résumé

Cette étude nous dit : Attention ! Plus nous laissons les IA s'entraîner sur des données qu'elles ont elles-mêmes générées, plus elles perdent leur capacité à être surprenantes et variées. Elles commencent à se ressembler toutes, comme des clones qui répètent les mêmes phrases, même quand on leur demande d'être créatifs.

C'est comme si, en voulant devenir meilleurs, les chefs avaient oublié comment cuisiner autre chose que ce qu'ils ont déjà mangé.

Recevez des articles comme celui-ci dans votre boîte mail

Digests quotidiens ou hebdomadaires personnalisés selon vos intérêts. Résumés Gist ou techniques, dans votre langue.

Essayer Digest →