Do Metrics for Counterfactual Explanations Align with User Perception?

Lo studio dimostra che le metriche algoritmiche comunemente utilizzate per valutare le spiegazioni controfattuali hanno una correlazione debole e dipendente dal dataset con le percezioni umane, evidenziando la necessità di approcci di valutazione più centrati sull'utente.

Felix Liedeker, Basil Ell, Philipp Cimiano, Christoph Düsing

Pubblicato 2026-03-17
📖 4 min di lettura☕ Lettura da pausa caffè

Each language version is independently generated for its own context, not a direct translation.

🍄 Il Paradosso della "Spiegazione Perfetta"

Immagina di aver comprato un'auto usata e il venditore ti dice: "Non puoi guidarla perché il motore è rotto". Tu chiedi: "Cosa dovrei cambiare per farla partire?".
L'Intelligenza Artificiale (AI) ti risponde con una spiegazione controfattuale: "Se cambiassi la candela e l'olio, l'auto partirebbe".

Fin qui, tutto bene. Ma come facciamo a sapere se questa spiegazione è davvero buona? È utile? È chiara?

Gli scienziati hanno creato dei metri automatici (come dei "righelli digitali") per misurare la qualità di queste spiegazioni. Questi righelli controllano cose come:

  • Quante cose hai cambiato? (Pochi cambiamenti = meglio).
  • Quanto è simile la nuova situazione a quella vecchia? (Più simile = meglio).
  • Quanto è "strana" la nuova situazione? (Non deve sembrare un'auto volante se stiamo parlando di un'auto normale).

Il problema? Gli scienziati hanno scoperto che questi "righelli digitali" spesso non capiscono cosa pensano le persone vere.


🔍 Cosa hanno fatto gli autori? (L'Esperimento)

Immagina di essere un giudice in una gara di cucina.

  1. I Cuochi (L'AI): Hanno preparato 85 diverse "spiegazioni" (ricette per cambiare il risultato) su tre argomenti diversi: funghi (sono commestibili?), livelli di obesità e malattie cardiache.
  2. I Righelli (I Metri Automatici): Hanno misurato ogni spiegazione con i loro calcoli matematici.
  3. I Giudici (Le Persone): Hanno invitato 167 persone normali (non esperti di informatica) a leggere queste spiegazioni e dare un voto su: "È chiaro?", "È credibile?", "Mi fido?".

Poi hanno messo a confronto i voti dei Righelli con i voti delle Persone.

📉 Il Risultato Shockante: "Parlano lingue diverse"

Il risultato è come se un metronomo e un musicista cercassero di accordarsi, ma uno suonasse in Do e l'altro in Fa.

  1. Nessuna sintonia: I righelli automatici e le persone non sono d'accordo. A volte il righello dice "Questa spiegazione è perfetta!", mentre la persona pensa "Ma che senso ha?".
  2. Dipende dal contesto: È come se i righelli funzionassero bene solo in una stanza specifica.
    • Nel caso dei funghi, le persone preferivano spiegazioni con pochi cambiamenti (come dire: "Cambia solo il colore del cappello").
    • Nel caso dell'obesità, invece, le persone volevano spiegazioni più ricche e dettagliate.
    • I righelli automatici, però, non capivano questa differenza: usavano la stessa regola per tutti e fallivano.
  3. Più righelli non aiutano: Gli autori hanno pensato: "Forse se usiamo tutti i righelli insieme, funziona meglio!". Hanno provato a mischiare 7, 10, 20 metriche diverse. Risultato? Peggio. Era come cercare di capire una ricetta guardando contemporaneamente il peso, il colore, la temperatura e il rumore della pentola: più dati aggiungi, più ti confondi, e il risultato diventa meno affidabile.

🧠 La Metafora del "Termometro Rotto"

Immagina che l'Intelligenza Artificiale sia un paziente che ha la febbre.

  • Le metriche automatiche sono come un termometro digitale che misura la temperatura in modo preciso, ma non sa se il paziente ha anche mal di testa, nausea o paura.
  • La percezione umana è il medico che guarda il paziente e dice: "Non è solo la febbre, è che il paziente ha bisogno di rassicurazione e di una spiegazione semplice".

Lo studio dice: "Guardate, il termometro digitale (le metriche) ci dà un numero preciso, ma quel numero non ci dice se il paziente si sente meglio o se capisce cosa sta succedendo."

💡 Perché è importante?

Per anni, gli sviluppatori di AI hanno pensato: "Se la nostra spiegazione ha un punteggio alto sui nostri righelli matematici, allora è una buona spiegazione per l'utente."

Questo studio ci dice: "No, non è vero."
Le metriche attuali sono come una mappa disegnata da un alieno: tecnicamente precisa, ma inutile per un turista che vuole trovare il ristorante.

🚀 Cosa dobbiamo fare ora?

Dobbiamo smettere di fidarci ciecamente dei "righelli digitali" e iniziare a costruire sistemi di valutazione che ascoltino davvero le persone.
Invece di chiedere all'AI: "Quanto sei efficiente?", dovremmo chiedergli: "Quanto sei comprensibile per me?".

In sintesi: Le regole matematiche che usiamo per giudicare le spiegazioni dell'AI sono spesso sbagliate rispetto a come le pensiamo noi umani. Dobbiamo creare nuovi strumenti che misurino ciò che conta davvero per le persone: la fiducia, la chiarezza e la sensazione di essere capiti.

Ricevi articoli come questo nella tua casella di posta

Digest giornalieri o settimanali personalizzati in base ai tuoi interessi. Riassunti Gist o tecnici, nella tua lingua.

Prova Digest →