Evaluation of Deontic Conditional Reasoning in Large Language Models: The Case of Wason's Selection Task

Questo studio introduce un nuovo dataset per il compito di selezione di Wason che codifica la modalità deontica, rivelando che i grandi modelli linguistici, proprio come gli esseri umani, ragionano meglio con regole deontiche e commettono errori simili al bias di abbinamento.

Hirohiko Abe, Kentaro Ozeki, Risako Ando, Takanobu Morishita, Koji Mineshima, Mitsuhiro Okada

Pubblicato 2026-03-09
📖 4 min di lettura☕ Lettura da pausa caffè

Each language version is independently generated for its own context, not a direct translation.

Ecco una spiegazione semplice e creativa di questo studio, pensata per chiunque, anche senza un background tecnico.

🧠 L'Esame di Logica per le Intelligenze Artificiali: Quando le Regole Diventano "Divieti"

Immagina di avere un gruppo di studenti molto intelligenti, ma un po' strani: sono le Intelligenze Artificiali (LLM). Fino a poco tempo fa, sapevamo che questi studenti erano bravissimi a scrivere poesie o a riassumere libri. Ma quanto sono bravi a ragionare?

Gli scienziati di questo studio (dall'Università di Keio e di Tokyo) hanno deciso di metterli alla prova con un famoso test psicologico chiamato "Il Compito di Selezione di Wason".

🃏 Il Gioco delle Carte: La Regola Segreta

Immagina un gioco con quattro carte sul tavolo. Ogni carta ha un numero da una parte e una lettera dall'altra.
Il "Giudice" (l'IA) deve verificare se una regola è vera o falsa.

  • Scenario Noioso (Regola Descrittiva): "Se una carta ha un numero dispari, allora dall'altra parte c'è una lettera maiuscola."

    • Le carte: 7, 12, D, d.
    • Il problema: La maggior parte delle persone (e delle vecchie IA) sbaglia. Pensano di dover controllare il "7" (giusto) e la "D" (sbagliato, perché la D è una maiuscola, quindi conferma la regola, non la smentisce). La risposta giusta sarebbe controllare il "7" e la "d" (per vedere se c'è un numero dispari dietro una minuscola, il che romperebbe la regola).
  • Scenario Utile (Regola Deontica): "Se un paziente ha sangue, allora l'infermiere deve indossare i guanti."

    • Le carte: Sangue, No sangue, Guanti, No guanti.
    • Il risultato: Qui le persone (e le nuove IA) sono molto più brave! Capiscono subito che bisogna controllare il "Sangue" (per vedere se ci sono i guanti) e il "No guanti" (per vedere se c'è sangue, il che sarebbe una violazione).

🔍 Cosa hanno scoperto gli scienziati?

Lo studio ha scoperto due cose fondamentali su come ragionano queste intelligenze artificiali:

1. Le IA sono "umanissime" quando ci sono regole sociali
Proprio come gli esseri umani, le IA ragionano molto meglio quando la regola riguarda obblighi, permessi o divieti (come indossare i guanti o non entrare in una stanza).

  • L'analogia: Immagina che le IA abbiano due "cervelli". Uno è un robot freddo che fatica con la logica astratta (i numeri e le lettere). L'altro è un "sociale" che capisce perfettamente le regole della convivenza ("Se fai X, devi fare Y"). Quando il problema diventa sociale, le IA si svegliano e funzionano meglio.

2. Il "Bias del Match" (La trappola delle parole)
Perché le IA sbagliano? Gli scienziati volevano capire se sbagliavano perché volevano confermare la regola (pensare: "Vediamo se ho ragione!") o perché si facevano ingannare dalle parole stesse.

  • L'ipotesi della conferma: "Voglio trovare prove che la mia idea è giusta."
  • L'ipotesi del "Match" (Corrispondenza): "Voglio scegliere le carte che hanno le stesse parole scritte sulla regola, ignorando se c'è un 'NON' davanti."

Il verdetto: Le IA non cercano di confermare la regola. Si fanno ingannare dalle parole!
Se la regola dice "Se c'è sangue...", l'IA tende a scegliere la carta "Sangue" e la carta "Guanti" (perché le parole corrispondono), anche se la logica dice che dovrebbe scegliere "Sangue" e "No Guanti".
È come se l'IA dicesse: "Vedo la parola 'Sangue' nella regola, quindi scelgo la carta 'Sangue'. Vedo la parola 'Guanti', quindi scelgo anche quella!", ignorando la logica complessa del "NON".

🚀 Perché è importante?

Questo studio ci dice che le Intelligenze Artificiali non sono solo calcolatrici perfette. Hanno dei "pregiudizi" simili ai nostri:

  1. Sono migliori con le regole sociali: Capiscono meglio le leggi e i divieti rispetto alla matematica astratta.
  2. Sono distratte dalle parole: Se una parola appare nella regola, tendono a fissarsi su quella, ignorando le negazioni (come il "NON").

In sintesi: Le IA stanno diventando molto brave a ragionare, ma quando si tratta di logica pura, a volte si comportano come un bambino che gioca a carte: si fida di ciò che vede scritto piuttosto che di ciò che significa.

Questo ci aiuta a capire che, per rendere le IA più intelligenti, non dobbiamo solo insegnar loro più dati, ma dobbiamo aiutarle a capire la differenza tra "ciò che è scritto" e "ciò che è logicamente vero", specialmente quando le regole cambiano da "fatti" a "obblighi".