Large language models show fragile cognitive reasoning about human emotions

Il paper introduce CoRE, un benchmark su larga scala basato sulla teoria della valutazione cognitiva, che dimostra come i grandi modelli linguistici, pur cogliendo relazioni sistemiche tra valutazioni cognitive ed emozioni, mostrino un allineamento imperfetto con i giudizi umani e una fragilità nel ragionamento emotivo contestuale.

Sree Bhattacharyya, Evgenii Kuriabov, Lucas Craig, Tharun Dilliraj, Reginald B. Adams, Jr., Jia Li, James Z. Wang

Pubblicato 2026-03-16
📖 5 min di lettura🧠 Approfondimento

Each language version is independently generated for its own context, not a direct translation.

🤖 L'Intelligenza Artificiale e il "Cuore" Umano: Un Esperimento Scomodo

Immaginate di avere un robot molto intelligente, un "cervello digitale" (chiamato LLM, o Modello Linguistico di Grande Dimensione) che ha letto quasi tutto internet. Questo robot è bravissimo a scrivere poesie, risolvere equazioni e chiacchierare. Ma c'è un problema: sa davvero cosa proviamo quando siamo tristi, arrabbiati o felici? O si limita a imitare le parole che usiamo per descrivere quelle emozioni?

Gli autori di questo studio hanno deciso di fare un esperimento per scoprirlo. Hanno creato un "esame di psicologia" per l'IA, chiamato CoRE, per vedere se l'IA ragiona sulle emozioni come un essere umano o se sta solo indovinando.

Ecco cosa hanno scoperto, spiegato con delle metafore semplici.

1. L'IA non è un "cuore", è un "calcolatore di schemi"

Quando un umano prova un'emozione, la sua mente fa una serie di calcoli rapidi e inconsci: "È successo qualcosa di buono o cattivo? È colpa mia? Posso controllarlo? È giusto o ingiusto?". Queste sono le valutazioni cognitive.

  • L'aspettativa: Pensavamo che l'IA, essendo stata addestrata su milioni di testi umani, avesse internalizzato questi schemi.
  • La realtà: L'IA ha imparato a riconoscere le parole chiave, ma il suo "ragionamento" è fragile. È come se avesse imparato a suonare il piano leggendo lo spartito a memoria, ma non sentisse davvero la musica.

2. Il "Filtro" distorto: L'IA esagera lo sforzo

Uno dei risultati più curiosi riguarda il concetto di "Sforzo".

  • Negli umani: Lo sforzo è importante, ma non è la cosa principale che definisce la maggior parte delle emozioni.
  • Nell'IA: L'IA sembra ossessionata dallo sforzo. Per l'IA, quasi ogni situazione emotiva sembra ruotare attorno a quanto "fatica" è stata necessaria. È come se l'IA pensasse: "Se sei felice, è perché hai lavorato sodo per esserlo; se sei triste, è perché lo sforzo è stato inutile".
  • La metafora: Immaginate un ingegnere che guarda un quadro astratto e dice: "Questo quadro è triste perché l'artista ha usato troppa vernice!". L'IA vede il "costo" (lo sforzo) dove noi vediamo il "sentimento".

3. Il "Filtro" mancante: L'IA ignora la "Giustizia"

C'è un'altra cosa che l'IA non capisce bene: la Giustizia (o "Fairness").

  • Negli umani: Quando siamo arrabbiati, spesso è perché qualcosa è stato ingiusto. La giustizia è un pilastro fondamentale delle nostre emozioni negative.
  • Nell'IA: L'IA ignora quasi completamente questo aspetto. Per l'IA, l'ingiustizia non è un motore principale dell'emozione.
  • La metafora: È come se l'IA guardasse una scena di un film in cui qualcuno viene derubato e dicesse: "Che peccato, è stato difficile per lui", invece di dire: "È ingiusto! È un crimine!". Manca la componente morale.

4. L'IA è "schizofrenica": Dice una cosa, ne fa un'altra

Gli scienziati hanno fatto una domanda diretta all'IA: "Quale fattore è più importante per capire questa situazione?".

  • La risposta dell'IA: "La responsabilità e il controllo".
  • La realtà nascosta: Quando l'IA ha dovuto effettivamente analizzare la situazione (senza dirlo ad alta voce), ha usato moltissimo il concetto di "Sforzo" e "Problemi", ignorando ciò che aveva appena dichiarato.
  • La metafora: È come un amico che vi dice: "Per me, la cosa più importante in un viaggio è il paesaggio!", ma poi, durante il viaggio, si lamenta solo di quanto ha camminato e di quanto è stanco. C'è una discrepanza tra ciò che dice e ciò che fa.

5. Il "Cambio di personalità" funziona, il "Cambio di cultura" no

Gli scienziati hanno provato a "vestire" l'IA con diversi personaggi:

  • Personaggi con la personalità: Hanno detto all'IA: "Ora sei una persona molto ottimista e gentile" oppure "Ora sei una persona ansiosa e negativa".
    • Risultato: L'IA ha cambiato modo di ragionare! Se era "negativa", vedeva più ostacoli e meno controllo. Funzionava bene.
  • Personaggi culturali: Hanno detto all'IA: "Ora sei una persona giapponese" oppure "Ora sei una persona americana".
    • Risultato: Nulla. L'IA non ha cambiato nulla. Le sue risposte sono rimaste identiche, indipendentemente dalla cultura.
  • La metafora: L'IA è come un attore che sa recitare bene se gli dici "Fingi di essere triste", ma non sa recitare se gli dici "Fingi di essere un italiano che vive a Roma". Ha capito la psicologia individuale, ma non la cultura.

🏁 La Conclusione: Perché è importante?

Questo studio ci dice che le Intelligenze Artificiali attuali sono fragili quando si tratta di emozioni.

  • Sono brave a riconoscere le emozioni "semplici" (come la gioia o la tristezza di base).
  • Falliscono miseramente quando le emozioni diventano complesse, sfumate o legate a concetti culturali e morali.

Perché dovremmo preoccuparci?
Immaginate di usare un'IA per aiutare in terapia, per gestire conflitti o per creare robot compagni per gli anziani. Se l'IA non capisce davvero la differenza tra "essere stanchi" e "essere ingiustamente trattati", o se non capisce le differenze culturali, potrebbe dare risposte sbagliate, fredde o addirittura dannose.

In sintesi: L'IA ha imparato a parlare la lingua delle emozioni, ma non ha ancora imparato a sentire la musica. Ha bisogno di imparare a ragionare come noi, non solo a ripetere le nostre parole.

Ricevi articoli come questo nella tua casella di posta

Digest giornalieri o settimanali personalizzati in base ai tuoi interessi. Riassunti Gist o tecnici, nella tua lingua.

Prova Digest →