From Features to Actions: Explainability in Traditional and Agentic AI Systems

Questo studio evidenzia la necessità di passare dalle spiegazioni basate sull'attribuzione delle caratteristiche, efficaci per i modelli statici, a diagnosi basate sulle tracce di esecuzione per i sistemi AI agentic, dimostrando che l'incoerenza nel tracciamento dello stato è una causa primaria di fallimento nei percorsi decisionali multi-step.

Sindhuja Chaduvula, Jessee Ho, Kina Kim, Aravind Narayanan, Mahshid Alinoori, Muskan Garg, Dhanesh Ramachandram, Shaina Raza

Pubblicato 2026-03-09
📖 5 min di lettura🧠 Approfondimento

Each language version is independently generated for its own context, not a direct translation.

🧠 Il Grande Cambio di Paradigma: Dal "Fotografo" al "Viaggiatore"

Immagina che l'Intelligenza Artificiale (AI) sia come un viaggiatore.

Per dieci anni, abbiamo studiato l'AI come se fosse un fotografo. Gli davi una foto (l'input) e lui ti dice cosa c'è dentro (l'output). Se la foto è di un gatto, lui dice "Gatto".
In questo mondo statico, gli esperti di "Explainable AI" (AI spiegabile) usavano strumenti come SHAP o LIME. Pensa a questi strumenti come a un evidenziatore magico: ti mostrano quali parole nella foto (o nel testo) hanno convinto il fotografo a dire "gatto". Se la foto era ambigua, l'evidenziatore ti dice: "Ehi, è stato quel baffo nero a fargli dire gatto!". Funziona bene, è stabile e ci capiamo.

Ma ora le cose sono cambiate.
Oggi abbiamo l'AI Agente. Non è più un fotografo che scatta una foto e basta. È un viaggiatore che deve attraversare un continente intero per raggiungere una destinazione.

  • Deve fare molte tappe (passi).
  • Deve usare strumenti (mappe, bus, treni).
  • Deve prendere decisioni lungo il percorso.
  • Se sbaglia un treno, deve cambiare piano e riprovare.

Il problema? Gli strumenti vecchi (l'evidenziatore magico) non funzionano più per un viaggiatore. Se chiedi a un'AI agente: "Perché hai fallito il viaggio?", l'evidenziatore ti risponde: "Beh, ho guardato la tua richiesta iniziale e ho visto che volevi andare a Roma". Ma questo non ti dice perché sei finito in un fosso! Non ti dice che hai preso il treno sbagliato al passo 3, o che hai dimenticato di controllare il biglietto al passo 7.

🕵️‍♂️ La Scoperta: Non basta guardare la foto finale

Gli autori di questo studio hanno fatto un esperimento molto intelligente. Hanno confrontato due modi di guardare i fallimenti dell'AI:

  1. Il Metodo Vecchio (Attribuzione): Come l'evidenziatore. Guarda tutto il viaggio e cerca di dire: "In generale, le parole 'viaggio' e 'treno' sono correlate al successo".

    • Risultato: Funziona bene per i compiti semplici (come classificare un annuncio di lavoro), ma è cieco quando si tratta di capire dove esattamente un agente ha sbagliato durante un viaggio complesso. È come guardare la mappa di un'intera città e dire "Il traffico è stato il problema", senza sapere che il guidatore ha sbagliato strada all'incrocio di Via Roma.
  2. Il Metodo Nuovo (Tracce e Rubriche): Qui gli autori hanno inventato un nuovo modo di guardare. Invece di guardare solo l'inizio e la fine, guardano l'intero diario di viaggio (le "tracce").

    • Hanno creato una lista di controllo (rubrica) come quella che usa un ispettore di volo o un allenatore sportivo. Chiedono: "L'agente ha mantenuto il piano?", "Ha usato lo strumento giusto?", "Ha ricordato dove si trovava?".
    • Risultato: Questo metodo funziona benissimo! Hanno scoperto che il 90% dei fallimenti non è dovuto a una "cattiva idea iniziale", ma a incoerenze nello stato (l'agente si è "dimenticato" dove era o cosa aveva fatto prima) o a scelte sbagliate degli strumenti.

📊 I Risultati in Pillole (con analogie)

  • Il "Fotografo" (AI Statica): Se usi SHAP (l'evidenziatore) su un compito semplice, funziona alla grande. È stabile. È come dire: "Questa ricetta è buona perché c'è molto zucchero".
  • Il "Viaggiatore" (AI Agente): Se usi SHAP su un agente che prenota un volo, fallisce. SHAP non può dirti: "Hai prenotato il volo sbagliato perché hai confuso la data di ritorno con quella di andata". SHAP ti dice solo: "La parola 'volo' era importante".
  • La Lista di Controllo (Rubrica): Quando hanno usato la lista di controllo sulle tracce del viaggio, hanno scoperto che:
    • Se l'agente perde il filo del suo piano (incoerenza dello stato), le probabilità di successo crollano del 49%.
    • È 2,7 volte più probabile che un agente fallisca perché si è "confuso" durante il viaggio rispetto a quando riesce.

🚀 Perché è importante? (La Morale della Favola)

Immagina di avere un assistente personale AI che deve gestire le tue finanze o prenotare un viaggio medico.

  • Se usi il metodo vecchio, l'AI ti dirà: "Ho analizzato la tua richiesta e ho deciso di spendere i tuoi soldi per questo investimento". Non sai perché ha preso quella decisione specifica a quel momento.
  • Con il metodo nuovo (le tracce), l'AI ti dice: "Ho fallito perché al passo 4 ho usato il tool sbagliato per controllare il saldo, e al passo 7 ho dimenticato di aggiornare il budget. Ecco esattamente dove ho sbagliato".

💡 Conclusione Semplificata

Questo paper ci dice che non possiamo più usare le stesse lenti per guardare l'AI di oggi.
L'AI non è più un semplice "risponditore di domande", ma un "esecutore di compiti complessi". Per capire perché fallisce, non basta guardare la domanda iniziale (input) e la risposta finale (output). Dobbiamo guardare il filmato intero del suo viaggio, passo dopo passo, per vedere dove si è inceppato.

Gli autori propongono un nuovo pacchetto chiamato MEP (Minimal Explanation Packet): non è solo una spiegazione, è un pacchetto completo che include:

  1. Cosa è successo (la spiegazione).
  2. Le prove (il diario di viaggio, le email, i tool usati).
  3. La verifica (una lista di controllo che dice se l'agente ha rispettato le regole).

In sintesi: Dalla "fotografia" al "film". Per capire l'AI moderna, dobbiamo guardare l'intero film, non solo la copertina.