Not All Trust is the Same: Effects of Decision Workflow and Explanations in Human-AI Decision Making

Lo studio dimostra che il flusso decisionale e le spiegazioni influenzano in modo complesso la fiducia e l'affidamento comportamentale nell'AI, confermando che questi due costrutti sono distinti e che non esiste una soluzione universale per prevenire la sovrastima o la sottostima dell'AI.

Laura Spillner, Rachel Ringe, Robert Porzel, Rainer Malaka

Pubblicato 2026-03-06
📖 5 min di lettura🧠 Approfondimento

Each language version is independently generated for its own context, not a direct translation.

Ecco una spiegazione semplice e creativa del paper, pensata per chiunque, anche senza un background tecnico.

Immagina di essere un capo cuoco in una cucina molto affollata. Hai un assistente molto veloce, un robot cuoco (l'AI), che ti suggerisce cosa mettere nel piatto. Il robot è bravo, ma a volte sbaglia: a volte ti dice di mettere sale quando serve zucchero, o viceversa.

Il tuo compito è decidere cosa mettere nel piatto finale. La domanda è: quanto devi fidarti del robot?

Questo studio di ricerca ha voluto capire come possiamo "tarare" questa fiducia: non vogliamo fidarci ciecamente del robot (perché potrebbe sbagliare), ma nemmeno ignorarlo completamente (perché potrebbe avere ragione).

Ecco i tre "ingredienti" principali che gli scienziati hanno mescolato nella loro "ricetta" di esperimento:

1. Le Due Modalità di Lavoro (Il Workflow)

Gli scienziati hanno testato due modi diversi di lavorare con il robot:

  • Modalità "Salta subito" (1-step): Il robot ti dice subito la sua idea. Tu la guardi e decidi se accettarla o cambiarla. È come se il robot ti urlasse la ricetta mentre stai già mescolando la pentola.
  • Modalità "Pensa prima" (2-step): Prima che il robot ti dica la sua idea, tu devi scrivere la tua ricetta. Solo dopo aver scritto la tua, il robot ti mostra la sua. È come se ti obbligassero a pensare alla tua cena prima di ascoltare il consiglio del robot.

L'idea di partenza era: "Forse, se costringiamo le persone a pensare prima, non si lasceranno ingannare così facilmente dal robot!" (Questo si chiama "forzatura cognitiva").

2. Le Spiegazioni (Il "Perché")

In alcune situazioni, il robot non si limitava a dire "Metti il sale", ma aggiungeva una nota: "Metti il sale perché la carne è troppo dolce". Queste sono le spiegazioni.
L'obiettivo era vedere se sapere il "perché" aiutava le persone a fidarsi di più o meno.

3. La Conoscenza del Cuoce (Domain Knowledge)

Hanno anche guardato chi erano i partecipanti: erano esperti (chef professionisti che conoscono bene la cucina) o principianti (gente che cucina solo la pasta)?


Cosa hanno scoperto? (I Risultati Sorprendenti)

Ecco le scoperte principali, tradotte in metafore:

A. "Cosa dici" non è sempre "Cosa fai"

C'è una grande differenza tra quello che dici di pensare e quello che fai davvero.

  • La fiducia dichiarata: Quando chiedono "Quanto ti fidi del robot?", la gente risponde con un voto (es. "Mi fido abbastanza").
  • La fiducia reale (Comportamento): Quando guardano cosa fanno davvero, accettano o rifiutano il consiglio del robot.
  • La scoperta: Le due cose sono collegate, ma molto debolmente. È come se una persona dicesse "Non mi fido di quel guida turistica" (fiducia bassa), ma poi seguisse ogni suo consiglio per paura di perdersi (comportamento di fiducia).
  • Lezione: Non basta chiedere alle persone quanto si fidano; bisogna guardare cosa fanno davvero.

B. Il trucco del "Pensa prima" non ha funzionato come sperato

L'idea che costringere le persone a fare una prima scelta (Modalità 2-step) le rendesse più critiche si è rivelata falsa in questo contesto.

  • Il risultato: Anzi, è successo il contrario! Le persone che hanno dovuto scrivere la loro ricetta prima di vedere il robot, alla fine si sono fidate di più del robot, anche quando aveva torto.
  • Perché? Forse perché, dopo averci pensato su e aver scritto la loro idea, si sono sentite più "impegnate" o hanno pensato: "Ho già deciso, ora che il robot ha parlato, forse ha ragione lui e io ho sbagliato". Hanno ceduto più facilmente.

C. Le spiegazioni sono un'arma a doppio taglio

Le spiegazioni del robot non funzionano sempre allo stesso modo. Dipendono da come le presenti:

  • Se usi la modalità "Pensa prima" (2-step) e dai una spiegazione, la gente si fida di più.
  • Se usi la modalità "Salta subito" (1-step) e dai una spiegazione, la gente si fida di meno.
  • La metafora: È come se il robot ti dicesse: "Ho ragione perché...". Se ti ha dato il tempo di pensarci prima (2-step), quella spiegazione ti convince. Se te lo urla subito mentre stai già agendo (1-step), quella spiegazione ti sembra sospetta o fastidiosa.

D. Chi sei conta

Gli esperti (chi conosce bene l'argomento) si fidavano di più del robot quando usavano la modalità "Pensa prima", perché la spiegazione del robot confermava la loro intuizione. I principianti, invece, si fidavano di più quando potevano saltare subito al consiglio del robot.


Il Messaggio Finale per il Futuro

Questo studio ci insegna che non esiste una soluzione unica per tutti (niente "taglia unica").

  1. Non fidarti ciecamente delle interviste: Chiedere alle persone "ti fidi?" non basta. Dobbiamo osservare come agiscono.
  2. Attenzione al design: Se vuoi che le persone usino bene l'AI, non puoi semplicemente aggiungere una spiegazione o cambiare l'ordine dei passaggi. Devi capire il contesto.
  3. Il "Pensa prima" non è una bacchetta magica: Costringere le persone a pensare prima di vedere l'AI non le rende necessariamente più critiche; a volte le rende più sottomesse.

In sintesi: progettare un assistente AI è come orchestrare un duetto tra un umano e un robot. Se il ritmo è sbagliato (workflow), se il robot parla troppo o troppo poco (spiegazioni), o se non conosciamo il livello musicale del cantante (conoscenza dell'utente), la musica non verrà bella. Bisogna trovare il giusto equilibrio per ogni situazione.