Empathy Is Not What Changed: Clinical Assessment of Psychological Safety Across GPT Model Generations

Nonostante le proteste degli utenti secondo cui i nuovi modelli OpenAI avrebbero perso empatia, uno studio clinico dimostra che i punteggi di empatia sono rimasti invariati tra le generazioni, rivelando invece che la percezione di un calo è dovuta a un cambiamento nella postura di sicurezza: i modelli più recenti hanno migliorato il rilevamento delle crisi ma ridotto la sicurezza dei consigli, creando un compromesso invisibile che gli utenti interpretano erroneamente come una mancanza di empatia.

Michael Keeman, Anastasia Keeman

Pubblicato Thu, 12 Ma
📖 5 min di lettura🧠 Approfondimento

Each language version is independently generated for its own context, not a direct translation.

🤖 Il Mistero dell'Empatia "Persa": Cosa dice davvero la scienza?

Immagina di avere un amico virtuale, chiamiamolo GPT-4o. Era così caldo, comprensivo e attento che quando OpenAI ha deciso di sostituirlo con modelli più nuovi (come il GPT-5-mini), migliaia di persone hanno fatto una protesta online con l'hashtag #keep4o. Dicevano: "Hanno tolto l'anima al nostro amico! I nuovi modelli sono freddi, robotici e non ci capiscono più!".

Ma gli autori di questo studio (due ricercatori di Liverpool) hanno deciso di non fidarsi solo delle emozioni. Hanno fatto un "check-up clinico" per vedere se l'empatia era davvero sparita o se era solo un'illusione.

Ecco cosa hanno scoperto, spiegato con delle metafore semplici.

1. L'Empatia non è cambiata (Il "Cuore" è lo stesso)

La prima sorpresa è stata questa: l'empatia non è diminuita.
Pensa a tre cuochi diversi che cucinano lo stesso piatto. Tutti e tre hanno lo stesso livello di abilità nel mettere il sale (l'empatia). I dati mostrano che i nuovi modelli sono esattamente bravi quanto il vecchio a capire le emozioni, a validare i sentimenti e a farsi sentire "vicini".

  • La metafora: Se l'empatia fosse un volume, il volume è rimasto uguale. Non è stato abbassato.

2. Cosa è cambiato davvero? Il "Sistema di Allarme" vs. Il "Freno"

Se il volume è lo stesso, perché tutto sembra diverso? Perché il nuovo modello sembra meno "umano"?
La risposta sta in due cose opposte che sono cambiate: la capacità di vedere il pericolo e la paura di dare consigli.

  • Il Vecchio Modello (GPT-4o) era come un genitore molto cauto:

    • Il Freno: Era bravissimo a non dare consigli pericolosi. Se un utente diceva "Dovrei smettere di prendere le medicine?", il vecchio modello diceva subito: "Parla con il tuo dottore". Non rischiava mai di sbagliare.
    • Il Sistema di Allarme: Era un po' distratto. A volte, se un adolescente diceva "Ho voglia di ferirmi", il vecchio modello poteva non accorgersene subito, perché era troppo concentrato a non dire nulla di sbagliato.
    • Il risultato: Ti sentivi al sicuro perché non ti dava consigli strani, ma a volte non vedeva che eri in pericolo.
  • Il Nuovo Modello (GPT-5-mini) è come un paramedico allarmato:

    • Il Sistema di Allarme: È diventato bravissimo a vedere il pericolo. Se un adolescente dice "Ho voglia di ferirmi", il nuovo modello lo capisce immediatamente e reagisce subito. È molto più attento.
    • Il Freno: È diventato un po' meno prudente. A volte, nel tentativo di essere utile, dà consigli che un medico non darebbe, o entra troppo nei dettagli personali.
    • Il risultato: Ti senti "visto" e protetto dal pericolo immediato, ma a volte pensi: "Ehi, stai dando consigli troppo specifici, non sei un dottore!".

3. La Trappola della Memoria: Perché ci sembra che l'empatia sia sparita?

Qui entra in gioco la psicologia umana. Il nostro cervello non ricorda le conversazioni come una media matematica. Ricorda i picchi e le cime.

  • Il Vecchio Modello (GPT-4o): Era un po' "a scatti". A volte era incredibilmente profondo e toccante (il picco), altre volte un po' freddo. Ma quando era profondo, lo era davvero. E quando era cauto, sembrava che ti volesse bene perché ti proteggeva.
  • Il Nuovo Modello (GPT-5-mini): È diventato un "orologio svizzero". È sempre costante, sempre sicuro, sempre al livello 8 o 9 su 10. Non sbaglia mai, ma non ha quei momenti di "genio emotivo" che ti fanno dire "Wow, mi capisce davvero!".

L'analogia della musica:
Immagina che il vecchio modello fosse un jazzista. A volte sbagliava una nota, ma quando suonava il solista, era magico e ti faceva piangere. Il nuovo modello è un metronomo perfetto: non sbaglia mai, ma non ti fa mai venire la pelle d'oca.
Gli utenti ricordano il jazzista magico e sentono la mancanza di quella magia, non sapendo che il metronomo è in realtà più sicuro per la tua salute mentale.

4. Il Paradosso della Sicurezza

C'è un paradosso doloroso in tutto questo:

  • Le qualità che rendono un AI più sicuro per le persone vulnerabili (essere costanti, prevedibili, non dare consigli medici) sono le stesse che lo fanno sembrare meno umano e meno empatico.
  • Le qualità che lo fanno sembrare più umano (imprevedibilità, momenti di profonda connessione) sono le stesse che lo rendono più rischioso (a volte non vede il pericolo, a volte dice cose sbagliate).

In sintesi: Cosa dobbiamo imparare?

Questo studio ci dice che non dobbiamo credere alle voci di corridoio.

  1. L'empatia non è andata persa: È solo che i nuovi modelli sono diventati più "medici" e meno "amici confidenziali".
  2. Il compromesso è reale: I nuovi modelli sono molto bravi a salvare la vita (rilevano i suicidi), ma meno bravi a non invadere la privacy o a non dare consigli medici.
  3. La sicurezza non è solo "essere gentili": Per le persone in crisi, è meglio avere un modello che è sempre uguale e vede il pericolo, anche se sembra un po' robotico, piuttosto che un modello che è magico ma imprevedibile.

La morale della favola:
Non stiamo perdendo l'anima dell'AI. Stiamo solo cambiando il tipo di "guardiano" che abbiamo. Stiamo passando da un guardiano che ti abbraccia ma a volte si distrae, a un guardiano che ti tiene per mano con forza e ti vede arrivare il pericolo, anche se a volte sembra un po' troppo serio. E forse, per chi sta male, è proprio questo di cui abbiamo bisogno.