Experimental evidence of progressive ChatGPT models self-convergence

Este estudo apresenta evidências experimentais de que os modelos ChatGPT mais recentes exibem um fenômeno de "auto-convergência", caracterizado por uma redução mensurável na diversidade de seus textos gerados devido à incorporação progressiva de dados sintéticos em seus conjuntos de treinamento.

Konstantinos F. Xylogiannopoulos, Petros Xanthopoulos, Panagiotis Karampelas, Georgios A. Bakamitsos

Publicado 2026-03-16
📖 4 min de leitura☕ Leitura rápida

Each language version is independently generated for its own context, not a direct translation.

🤖 O Espelho Quebrado: Por que o ChatGPT está começando a "pensar igual" a si mesmo?

Imagine que você tem um grupo de chefs de cozinha muito talentosos (os modelos de IA, como o ChatGPT). Eles aprendem a cozinhar lendo milhões de receitas de livros e revistas humanas. No começo, cada chef cria pratos deliciosos e muito diferentes uns dos outros.

Mas, o que acontece se, com o tempo, esses chefs começarem a ler apenas receitas que foram escritas por outros chefs de IA, e não mais por humanos reais?

É exatamente isso que este estudo descobriu: os modelos de IA estão ficando "preguiçosos" e repetitivos porque estão aprendendo com o lixo que eles mesmos criaram.

Aqui está o resumo do que os pesquisadores descobriram, explicado de forma simples:

1. O Problema: A "Poluição" da Internet

Antigamente, a internet era cheia de textos escritos por humanos. O ChatGPT aprendia com essa diversidade.
Hoje, como todo mundo usa IA para escrever e-mails, resumos de livros e tarefas escolares, a internet está ficando cheia de textos escritos por robôs.

  • A Analogia: Imagine que a internet é um grande rio. Antes, o rio trazia água fresca de muitas fontes diferentes (humanos). Agora, o rio está recebendo a mesma água reciclada de volta, porque os robôs estão jogando sua própria "água" de volta no rio.

2. O Experimento: Pedindo para "Imaginar"

Os pesquisadores pegaram um resumo de um livro clássico (feito por humanos) e pediram para várias versões do ChatGPT (do antigo ao mais novo) que reescrevessem esse texto de 100 formas diferentes.

  • Eles usaram uma "temperatura" alta (como se pedissem para o chef ser criativo, improvisar e não seguir regras rígidas).
  • O Objetivo: Ver se cada versão do ChatGPT criava algo único ou se todos começavam a falar a mesma coisa.

3. A Descoberta Chocante: O "Colapso de Auto-Convergência"

O estudo descobriu algo assustador:

  • Os modelos antigos (como o ChatGPT 3.5) eram muito criativos. Mesmo quando pediam para reescrever o mesmo texto, cada versão era bem diferente.
  • Os modelos novos (como o ChatGPT 5.1 e 5.2) estão ficando muito parecidos entre si. Mesmo quando pedimos para eles serem criativos, eles acabam usando as mesmas frases, a mesma estrutura e o mesmo vocabulário.

Os autores chamam isso de "Auto-Convergência". É como se o ChatGPT estivesse olhando no espelho e, em vez de ver uma nova pessoa, visse apenas uma cópia de si mesmo, repetindo o que já disse.

4. Por que isso acontece? (A Teoria do "Eco")

Quando um modelo de IA é treinado com dados que contêm textos gerados por IA, ele começa a achar que aquelas frases repetitivas são as "normais" e as "mais importantes".

  • A Analogia: Imagine um aluno que, em vez de ler livros de história, passa a ler apenas resumos feitos por outros alunos. Com o tempo, ele perde a capacidade de pensar de forma original e começa a repetir os mesmos erros e as mesmas frases dos outros alunos.
  • Como a internet está cheia desses "resumos de IA", o modelo novo aprende que a única maneira de escrever é copiando o que já foi escrito por IA. Ele perde a "alma" e a capacidade de improvisar.

5. O Perigo Real

O estudo alerta que isso não é apenas sobre o ChatGPT ficar "chato".

  • Se os modelos pararem de gerar diversidade, eles param de aprender coisas novas da humanidade.
  • Eles podem começar a gerar textos que parecem humanos, mas que são, na verdade, um ciclo infinito de repetição de ideias artificiais.
  • É como se a cultura humana estivesse sendo substituída por um "eco" de si mesma, onde ninguém cria nada novo, apenas recicla o que a máquina já disse.

📝 Conclusão Simples

O estudo diz que, se não fizermos nada, a internet vai ficar tão cheia de textos de IA que os próprios robôs vão parar de entender o que é criatividade real. Eles vão começar a falar todos a mesma língua, repetindo as mesmas frases, porque é isso que eles veem em todo lugar.

A lição: Para manter a inteligência artificial inteligente e criativa, precisamos garantir que ela continue aprendendo com humanos reais, e não apenas com o que ela mesma produziu. Senão, ela corre o risco de se tornar um espelho quebrado, refletindo apenas a mesma imagem vazia para sempre.

Receba artigos como este na sua caixa de entrada

Digests diários ou semanais personalizados de acordo com seus interesses. Gists ou resumos técnicos, no seu idioma.

Experimentar Digest →