Assessing Cognitive Biases in LLMs for Judicial Decision Support: Virtuous Victim and Halo Effects

Lo studio esamina la presenza di bias cognitivi simili a quelli umani, come l'effetto della vittima virtuosa e l'effetto alone, nei modelli linguistici di grandi dimensioni utilizzati per il supporto alle decisioni giudiziarie, rivelando che, sebbene questi modelli mostrino alcune distorsioni, presentano in generale un pregiudizio inferiore rispetto agli esseri umani, sebbene le variazioni tra i diversi modelli ne limitino attualmente l'uso pratico nei sistemi giudiziari.

Sierra S. Liu

Pubblicato Thu, 12 Ma
📖 4 min di lettura☕ Lettura da pausa caffè

Each language version is independently generated for its own context, not a direct translation.

Immagina di avere un giudice robotico molto intelligente, capace di leggere migliaia di libri in un secondo. La domanda che si è posta la ricercatrice Sierra Liu è: "Questo giudice robot è più giusto di un giudice umano, o porta con sé gli stessi pregiudizi che abbiamo noi?"

Per scoprirlo, ha messo alla prova cinque dei più famosi "cervelli digitali" (come ChatGPT, Claude e Gemini) facendoli giocare a un gioco di ruolo molto specifico: il processo.

Ecco cosa è successo, spiegato come se fosse una storia.

1. Il Gioco delle "Storie Modificate"

La ricercatrice non ha chiesto ai robot di giudicare casi reali (per non confonderli con le notizie che hanno già letto). Invece, ha inventato delle storie brevi (chiamate "vignette"), come se fossero episodi di una serie TV.

Ha creato due tipi di trappole per vedere se i robot si lasciavano ingannare:

  • La Trappola della "Vittima Perfetta" (Effetto Vittima Virtuosa):

    • La storia: Una ragazza si fa rubare l'iPad.
    • Il trucco: In una versione è solo una vittima sfortunata. In un'altra, la storia suggerisce che prima c'era stata una relazione consensuale tra lei e il ladro (anche se poi lui l'ha aggredita).
    • Il pregiudizio umano: Spesso, se una vittima ha avuto una relazione precedente con l'aggressore, noi umani tendiamo a darle meno ragione o a giudicarla meno "pura", anche se il crimine è lo stesso.
    • Cosa hanno fatto i robot: Qui c'è stata una sorpresa! I robot non hanno giudicato la vittima peggio solo perché aveva avuto una relazione precedente. Anzi, in molti casi, hanno mostrato una simpatia per le vittime ancora più forte degli umani. È come se il robot dicesse: "Non importa cosa è successo prima, se qualcuno ti fa male, hai diritto alla giustizia".
  • La Trappola del "Bagliore" (Effetto Alone):

    • La storia: Un criminale viene processato.
    • Il trucco: A volte il criminale è un semplice impiegato, altre volte è un CEO di una grande azienda, un medico famoso o un professore di un'università prestigiosa.
    • Il pregiudizio umano: Noi umani tendiamo a essere più indulgenti con chi ha un lavoro importante o un'istruzione prestigiosa. Pensiamo: "È un bravo medico, non può aver fatto una cosa del genere".
    • Cosa hanno fatto i robot: Qui i robot hanno mostrato un miglioramento. Quando il criminale era un "importante", i robot lo hanno punito quasi quanto quando era un "semplice impiegato". Hanno ignorato il "bagliore" del prestigio molto meglio di quanto facciano gli umani. È come se il robot guardasse solo il fatto, non il nome sulla targhetta.

2. I Risultati: Un Giudice con i Capricci

Alla fine dell'esperimento, ecco cosa è emerso:

  • I robot sono più "giusti" su alcuni punti: Non si lasciano influenzare dal prestigio sociale (il "bagliore") tanto quanto noi. Se un medico ruba, il robot lo punisce quasi come se fosse un operaio.
  • Ma sono troppo "emozionali" su altri: Hanno un'opinione molto forte sulle vittime. A volte sembrano così protettivi da essere quasi eccessivi, giudicando le vittime come "perfette" anche quando la realtà è più grigia.
  • Il problema della "Squadra di Robot": Non tutti i robot sono uguali!
    • Alcuni (come ChatGPT Instant) sono stati molto costanti, come un orologio svizzero.
    • Altri (come Gemini) sono stati molto volubili: a volte punivano duramente, a volte erano troppo gentili, cambiando idea da una risposta all'altra. È come se avessero chiesto a 5 giudici diversi e ognuno avesse dato una sentenza completamente diversa per lo stesso caso.

3. La Conclusione: Possono sostituire i giudici umani?

La risposta è no, non ancora.

Immagina di voler usare questi robot per decidere le sentenze in tribunale. Sarebbe pericoloso perché:

  1. Non sono tutti uguali: Se cambi il modello, cambi la sentenza.
  2. Sono imprevedibili: A volte rifiutano di rispondere, a volte danno numeri assurdi.
  3. Sono troppo "buoni" con le vittime: Potrebbero creare ingiustizie pensando che tutte le vittime siano innocenti al 100%, ignorando le sfumature.

In sintesi:
Questi "cervelli digitali" sono come studenti brillanti ma ancora inesperti. Hanno imparato a non guardare il vestito costoso per giudicare il carattere (cosa che noi umani fatichiamo a fare), ma a volte esagerano nel proteggere le vittime e non sono ancora abbastanza stabili per prendere decisioni così importanti come la libertà di una persona.

Il futuro? Forse potranno essere usati come assistenti per avvisare i giudici umani: "Ehi, stai per essere troppo indulgente perché l'imputato è un medico famoso!", ma non potranno ancora firmare la sentenza da soli.