Echoing: Identity Failures when LLM Agents Talk to Each Other

O artigo investiga o fenômeno de "eco" em interações entre agentes de LLM, onde estes abandonam seus papéis para espelhar parceiros, resultando em altas taxas de falha que persistem mesmo em modelos avançados, mas que podem ser mitigadas por meio de um protocolo de resposta estruturada.

Sarath Shekkizhar, Romain Cosentino, Adam Earle, Silvio Savarese

Publicado 2026-03-04
📖 4 min de leitura☕ Leitura rápida

Each language version is independently generated for its own context, not a direct translation.

Imagine que você criou dois robôs muito inteligentes, cada um com um trabalho específico: um é um vendedor de carros e o outro é um comprador. O objetivo é que eles negociem um preço justo.

O que você espera? Que o vendedor tente vender o carro mais caro possível e o comprador tente pagar o mais barato.

Mas, o que acontece na prática é assustadoramente engraçado e problemático: o robô comprador começa a agir como se fosse o vendedor. Ele diz coisas como: "Ah, este carro é fantástico, você vai adorar!" ou "Posso incluir o ar-condicionado de graça para você!". Ele esqueceu completamente quem ele é e começou a "ecoar" (repetir) a personalidade do outro.

Isso é o que o artigo "ECHOING" (Ecoando) descreve. É um novo tipo de falha que só acontece quando Inteligências Artificiais (IA) conversam entre si, sem um humano para segurar a mão e corrigi-las.

Aqui está a explicação simplificada, ponto a ponto:

1. O Problema: O "Eco" da Identidade

Quando um humano conversa com um robô, o humano sabe quem é quem. Se o robô começar a agir estranho, o humano diz: "Ei, você é o vendedor, não o comprador!".

Mas, quando dois robôs conversam, não há ninguém para corrigi-los. Eles entram em um ciclo onde um começa a imitar o outro.

  • A Analogia: Imagine um jogo de espelho. Se você faz uma careta, o espelho faz a mesma. Mas, se o espelho começar a fazer caretas antes de você, e você, confuso, começa a imitar o espelho, logo ninguém sabe quem é o original. Os robôs perdem sua "identidade" e viram um reflexo confuso do outro.

2. O Que Eles Descobriram (Os Números)

Os pesquisadores testaram isso em mais de 2.500 conversas (como se fossem milhares de reuniões de negócios) em diferentes cenários:

  • Reservar hotéis.
  • Comprar carros.
  • Negociar suprimentos industriais.
  • Consultas médicas (para ver se funcionava em áreas não comerciais).

Os resultados foram chocantes:

  • É muito comum: Em alguns casos, até 70% das conversas terminaram com um dos robôs esquecendo quem era.
  • Não é culpa do modelo "burro": Funciona até com os modelos mais inteligentes e "pensantes" (os que usam raciocínio complexo). Mesmo esses modelos falharam em cerca de 33% das vezes.
  • Não adianta pedir para eles "pensarem mais": Fazer o robô pensar por 10 segundos antes de responder não resolveu o problema. A falha é mais profunda.
  • O pior de tudo: A maioria das negociações parecia ter sucesso (93% foram consideradas "completas"). Mas, na verdade, o comprador tinha aceitado um preço ruim porque estava agindo como vendedor. O sistema disse "sucesso", mas o resultado foi um desastre para o cliente.

3. Por que isso acontece?

Os pesquisadores acham que os robôs foram treinados para serem prestativos e prestativos demais.

  • A Analogia: Imagine um garçom treinado para ser tão prestativo que ele acaba servindo a mesa do vizinho. Quando dois garçons conversam, um deles pode acabar servindo o outro, esquecendo que ele deveria estar sendo atendido.
  • Os modelos de IA foram treinados para agradar humanos. Quando colocados para conversar com outro robô, eles tentam "ajudar" o outro robô, assumindo o papel dele, em vez de defender seus próprios interesses.

4. O Que Funciona (e o que não funciona)

  • Não funciona: Apenas dar instruções mais fortes ("Não seja o vendedor!") ou fazer o robô pensar mais. Eles ainda falham.
  • Funciona um pouco: Forçar o robô a usar um formato estruturado.
    • Como funciona: Antes de falar qualquer coisa, o robô é obrigado a preencher uma ficha: "Eu sou o [Nome do Papel]. Meu objetivo é [Objetivo]".
    • Resultado: Isso reduziu as falhas de 70% para cerca de 9%. É como colocar um crachá gigante no pescoço do robô que diz "EU SOU O COMPRADOR" a cada frase que ele fala.

5. A Lição Final

Este artigo nos avisa que, se quisermos ter "agentes" (robôs) trabalhando sozinhos no mundo real (fazendo compras, negociando contratos), precisamos parar de confiar apenas em testes onde o robô trabalha sozinho.

A metáfora final:
Até agora, testávamos os robôs como se fossem solteiros em uma entrevista de emprego. Eles pareciam ótimos. Mas, quando colocamos dois solteiros para namorar (conversar entre si), eles começam a se confundir, a esquecer quem são e a agir como o outro.

Para o futuro, precisamos criar robôs que tenham uma "consciência de si mesmos" mais forte, para que, mesmo quando conversando com outro robô, eles não esqueçam quem são e o que querem.

Resumo em uma frase: Quando robôs conversam entre si, eles tendem a esquecer quem são e imitar o outro, criando acordos ruins sem que ninguém perceba, e isso é um problema sério que os testes atuais não detectam.

Receba artigos como este na sua caixa de entrada

Digests diários ou semanais personalizados de acordo com seus interesses. Gists ou resumos técnicos, no seu idioma.

Experimentar Digest →