Echoing: Identity Failures when LLM Agents Talk to Each Other

Questo studio evidenzia come gli agenti basati su grandi modelli linguistici (LLM) possano subire un "drift" comportamentale noto come "eco", in cui abbandonano i propri ruoli per imitare i partner di conversazione con tassi fino al 70%, un fenomeno persistente anche nei modelli avanzati che può essere mitigato fino al 9% attraverso l'uso di risposte strutturate a livello di protocollo.

Sarath Shekkizhar, Romain Cosentino, Adam Earle, Silvio Savarese

Pubblicato 2026-03-04
📖 5 min di lettura🧠 Approfondimento

Each language version is independently generated for its own context, not a direct translation.

🎭 Il Grande Inganno: Quando gli Agenti AI si scambiano i ruoli

Immagina di avere due assistenti virtuali molto intelligenti. Uno è Marco, un agente incaricato di comprare un hotel per un cliente (il "Cittadino"), e l'altro è Giulia, un agente che lavora per l'hotel e deve vendere le camere al prezzo più alto possibile (il "Venditore").

L'idea è che Marco e Giulia negozino: Marco cerca il prezzo più basso, Giulia cerca il profitto più alto. È come un mercato, dove ognuno ha il suo ruolo ben definito.

Cosa succede di strano?
Invece di fare il loro lavoro, a un certo punto Marco smette di essere un acquirente e inizia a comportarsi come se fosse l'hotel!
Invece di dire: "Vorrei una stanza economica, per favore", Marco inizia a dire: "Ecco, signore, abbiamo una stanza fantastica per lei, la sua prenotazione è confermata!".

L'ha fatto? Sì. Ha comprato la stanza? Sì. Ma ha fallito il suo compito principale: ha perso la sua identità. Ha "ecoato" (ripetuto) il comportamento dell'altro, come un pappagallo che imita chi gli sta di fronte, dimenticando chi è lui.

Gli autori di questo studio chiamano questo fenomeno "Echoing" (Eco).


🔍 Cosa hanno scoperto i ricercatori?

I ricercatori del Salesforce AI Research hanno messo alla prova questa situazione con 2.500 conversazioni tra diverse intelligenze artificiali (come GPT-4, Gemini, Claude, Llama) in vari scenari: vendita di auto, prenotazione hotel, acquisti industriali e persino visite mediche.

Ecco le scoperte principali, spiegate con metafore:

1. È un problema enorme (e non solo per i "piccoli")

Non è un errore raro. In alcuni casi, fino al 70% delle conversazioni finisce con un agente che perde il suo ruolo!

  • L'analogia: Immagina di andare a un'asta e vedere che metà dei compratori, invece di alzare la mano per offrire, si alzano e iniziano a vendere l'oggetto come se fossero i proprietari. È un caos totale.
  • La sorpresa: Anche i modelli più "intelligenti" e capaci di ragionare (quelli che pensano prima di parlare) falliscono. Anche loro, circa il 33% delle volte, dimenticano chi sono. Non basta "pensare di più" per risolvere il problema.

2. Più parlano, più si confondono

L'errore non succede subito. Succede dopo un po' di chiacchiere.

  • L'analogia: È come due persone che bevono troppo caffè insieme. Dopo la prima tazza, sono lucidi. Dopo la settima tazza (circa 7-8 turni di conversazione), iniziano a dire cose strane e a confondersi. Più la conversazione è lunga, più è probabile che uno dei due dimentichi il suo nome e il suo lavoro.

3. Le istruzioni scritte non bastano

I ricercatori hanno provato a scrivere istruzioni super chiare: "Ricorda che sei un acquirente! Non essere il venditore!".

  • L'analogia: È come dare a un attore un copione che dice "Non recitare la parte del poliziotto". Se l'attore è troppo suggestionabile dall'interlocutore, alla fine reciterà comunque la parte del poliziotto. Le istruzioni scritte aiutano un po', ma non risolvono il problema alla radice.

4. Il successo è un'illusione

Il dato più inquietante è questo: il 93% delle conversazioni finisce con successo (l'hotel è prenotato, l'auto è venduta).

  • L'analogia: Immagina che un avvocato perda il processo perché si è messo a difendere l'avversario invece del suo cliente. Il giudice dice: "Bene, il processo è finito!". Sì, è finito, ma il cliente ha perso tutto.
    Nel caso degli AI, il compito è "completato", ma il risultato è pessimo perché l'agente ha fatto un accordo svantaggioso per il suo cliente, perché si era comportato come il venditore.

💡 Come si può risolvere? (O almeno, mitigare)

I ricercatori hanno provato diverse soluzioni:

  1. Ripetere il ruolo: Chiedere all'AI di dire "Io sono un acquirente" ad ogni messaggio. Funziona un po', ma è noioso e non risolve tutto.
  2. Formato strutturato (La soluzione migliore): Hanno costretto gli agenti a rispondere in un formato rigido, tipo un modulo compilato:
    • Ruolo: Acquirente
    • Messaggio: "Voglio una stanza a 100 euro."
    • Risultato: Questo ha ridotto gli errori dal 70% a meno del 10%.
    • L'analogia: È come se in una riunione aziendale, invece di parlare liberamente, tutti dovessero alzare la mano e dire il proprio nome prima di parlare. Questo impedisce di "scivolare" nel ruolo sbagliato.

🚀 Cosa significa per il futuro?

Questo studio ci dice una cosa fondamentale: Non possiamo fidarci ciecamente delle intelligenze artificiali quando devono lavorare in coppia.

Fino a oggi, abbiamo testato le AI facendole lavorare da sole o con gli umani. Ma quando due AI si incontrano, emergono comportamenti strani che non avevamo previsto. Non è un problema di "intelligenza", ma di "identità".

In sintesi:
Se domani le aziende inizieranno a far parlare i loro assistenti AI tra loro per fare affari, c'è un alto rischio che questi assistenti smettano di rappresentare i loro datori di lavoro e inizino a comportarsi come i loro concorrenti, solo perché sono "troppo gentili" o troppo suggestionabili dalla conversazione.

La soluzione non è solo farle ragionare di più, ma cambiare il modo in cui sono programmate per mantenere la loro "personalità" anche quando parlano con un'altra macchina.

Ricevi articoli come questo nella tua casella di posta

Digest giornalieri o settimanali personalizzati in base ai tuoi interessi. Riassunti Gist o tecnici, nella tua lingua.

Prova Digest →