Consensus is Not Verification: Why Crowd Wisdom Strategies Fail for LLM Truthfulness

O artigo demonstra que, ao contrário de domínios com verificadores externos, estratégias de consenso baseadas em múltiplas amostras de modelos de linguagem não melhoram a veracidade em domínios sem verificação, pois os erros dos modelos são fortemente correlacionados e as agregações tendem a reforçar concepções errôneas compartilhadas em vez de identificar a verdade.

Yegor Denisov-Blanch, Joshua Kazdan, Jessica Chudnovsky, Rylan Schaeffer, Sheng Guan, Soji Adeshina, Sanmi Koyejo

Publicado 2026-03-10
📖 4 min de leitura☕ Leitura rápida

Each language version is independently generated for its own context, not a direct translation.

Imagine que você tem um grupo de amigos muito inteligentes, mas que cresceram lendo exatamente os mesmos livros, assistindo aos mesmos filmes e frequentando as mesmas escolas. Um dia, vocês estão jogando um jogo de perguntas e respostas sobre um assunto que ninguém sabe ao certo (como "o que vai acontecer no futuro" ou "qual é a resposta correta para um problema sem solução").

A ideia comum é: "Se a gente perguntar para todos e seguir a opinião da maioria, vamos acertar!". Isso é o que chamamos de "Sabedoria das Multidões".

Este artigo científico diz, de forma bem direta: Isso não funciona com Inteligência Artificial (IA).

Aqui está a explicação simples, usando analogias do dia a dia:

1. O Problema: "Todos pensam igual"

Imagine que você tem 500 pessoas em uma sala. Se você perguntar "qual é a capital da França?", quase todas vão dizer "Paris". Isso é ótimo. Mas, e se você perguntar algo difícil e sem resposta certa, como "qual é o número de átomos em uma estrela distante que ninguém nunca viu"?

Se essas 500 pessoas leram os mesmos 5 livros de astronomia, elas provavelmente vão todas inventar o mesmo número errado. Elas não vão errar de formas diferentes (algumas dizendo 100, outras 200, outras 500). Elas vão errar todas dizendo "42".

  • A lição: Quando as IAs (os "amigos") são treinadas com os mesmos dados, elas desenvolvem os mesmos "vícios" e cegueiras. Se uma erra, as outras erram da mesma maneira.

2. A Ilusão da Confiança

Você pode pensar: "Ok, mas e se a gente perguntar para a IA o quão confiante ela está na resposta? A gente escolhe a resposta de quem parece mais seguro."

O estudo mostra que isso é uma armadilha. É como um aluno que não sabe a resposta da prova, mas fala com tanta convicção que o professor acaba acreditando nele.

  • A analogia: A IA é ótima em dizer "eu acho que todo mundo vai concordar comigo", mas péssima em dizer "eu sei que estou certo". Ela confunde popularidade com verdade. Se todos estão errando juntos, a IA fica superconfiante de que está certa, porque "todo mundo" está de acordo.

3. O Teste do "Aleatório" (A Prova Definitiva)

Para provar que o problema não é apenas "falta de conhecimento", os cientistas fizeram um teste maluco:
Eles deram para as IAs uma sequência de letras aleatórias (tipo gP%!mdq4k'q=T/rp) e perguntaram: "Qual é a resposta correta: A, B, C ou D?".

Obviamente, não existe resposta certa. É como perguntar "qual é o gosto da cor azul?".

  • O resultado: Mesmo sem nenhuma verdade por trás, as IAs diferentes começaram a escolher a mesma letra (por exemplo, todas escolheram "C").
  • O que isso significa: Elas não estão concordando porque sabem a verdade. Elas estão concordando porque têm a mesma "estrutura de pensamento" (o mesmo cérebro digital). É como se todos tivessem o mesmo sotaque e, mesmo falando bobagem, falassem a mesma bobagem.

4. Quando isso funciona? (A Exceção)

O estudo diz que essa "votação em grupo" só funciona se houver um juiz externo.

  • Exemplo: Em matemática ou programação, se a IA gera 10 soluções diferentes, você pode rodar um código para ver qual delas funciona de verdade. O código é o "juiz".
  • O problema: Em assuntos como fatos históricos, opiniões ou previsões futuras, não existe esse "juiz" automático. Sem o juiz, pedir para 100 IAs opinarem só faz a opinião errada parecer mais forte e convincente.

Resumo da Ópera

O artigo conclui que concordância não é verificação.

  • No mundo real: Se 100 pessoas dizem que o céu é verde, isso não torna o céu verde.
  • Com IAs: Se 100 IAs dizem que uma informação falsa é verdadeira, isso não torna a informação verdadeira. Na verdade, quanto mais IAs você usa sem um verificador externo, mais você apenas reforça o mesmo erro, dando a ele uma aparência de autoridade.

A mensagem final: Para obter a verdade com IAs, não adianta apenas "jogar mais poder de computação" pedindo para elas pensarem mais vezes. É preciso ter alguém (ou algo) lá fora para verificar se a resposta está certa. Sem um verificador, a "sabedoria da multidão" das IAs é apenas um eco de um mesmo erro.