Abductive Reasoning with Syllogistic Forms in Large Language Models

Questo studio valuta la capacità dei modelli linguistici di grandi dimensioni di eseguire ragionamenti abduttivi, convertendo un dataset sillogistico per verificare se tali modelli presentino bias simili a quelli umani e per sottolineare l'importanza del ragionamento contestualizzato oltre la deduzione formale.

Hirohiko Abe, Risako Ando, Takanobu Morishita Kentaro Ozeki, Koji Mineshima, Mitsuhiro Okada

Pubblicato 2026-03-09
📖 4 min di lettura☕ Lettura da pausa caffè

Each language version is independently generated for its own context, not a direct translation.

Ecco una spiegazione semplice e creativa di questo studio, pensata per chiunque, anche senza un background tecnico.

Immagina che le Intelligenze Artificiali (come ChatGPT) siano degli studenti molto intelligenti che hanno letto quasi tutto internet. Per anni, gli scienziati hanno testato questi studenti chiedendo loro di fare deduzioni: ovvero, di applicare regole rigide come in un gioco di scacchi o in un'equazione matematica.
Esempio: "Tutti i gatti hanno le zampe. Questo è un gatto. Quindi, questo ha le zampe."

Il nuovo studio di questi ricercatori giapponesi si chiede: "Ma cosa succede se chiediamo loro di fare l'opposto? Se chiediamo loro di fare 'abduzioni'?"

Cos'è l'Abduzione? (Il Detective vs. Il Matematico)

Per capire la differenza, usiamo un'analogia:

  1. La Deduzione (Il Matematico): È come seguire una ricetta. Se metti gli ingredienti giusti nel forno, il risultato è certo. È logica pura.
  2. L'Abduzione (Il Detective): È come risolvere un crimine. Vedi un fatto (la scena del crimine) e devi indovinare la causa più probabile, anche se non hai tutte le prove.
    • Fatto: Il pavimento è bagnato.
    • Regola: Se piove, il pavimento si bagna.
    • Ipotesi (Abduzione): "Forse ha piovuto!" (Potrebbe essere vero, ma potrebbe anche essere che qualcuno ha versato l'acqua. È un'ipotesi, non una certezza).

Il punto centrale della ricerca è: Le IA sono bravi "Matematici" (deduzione), ma sono bravi anche "Detective" (abduzione)?

L'Esperimento: Il Gioco del "Perché?"

I ricercatori hanno creato un gioco basato su frasi logiche (sillogismi) per testare le IA. Hanno preso delle frasi logiche perfette e le hanno capovolte per trasformarle in indovinelli.

Hanno chiesto a quattro modelli di intelligenza artificiale (tra cui GPT-4 e Llama) di leggere due frasi e scegliere la terza che le spiegava meglio:

  • Regola: "Tutto ciò che è nel sacchetto è bianco."
  • Osservazione: "Queste palle sono bianche."
  • Domanda: "Perché sono bianche? Sono state nel sacchetto?"

Hanno creato tre tipi di scenari:

  1. Coerenti: Cose che hanno senso nella vita reale (es. "Le persone felici sorridono").
  2. Incoerenti: Cose assurde che contraddicono il nostro buon senso (es. "Tutto ciò che è fatto in quella pasticceria è piccante").
  3. Neutri: Cose senza un forte legame emotivo o culturale.

Cosa è Emerso? (I Risultati Sorprendenti)

Ecco le scoperte principali, spiegate con metafore:

1. Le IA sono "Detective" meno bravi dei "Matematici"
Quando dovevano fare deduzioni (logica pura), le IA andavano bene, specialmente GPT-4. Ma quando dovevano fare abduzioni (indovinare la causa), le loro prestazioni sono crollate.

  • Metafora: È come se un giocatore di scacchi fosse un campione del mondo, ma se gli chiedessi di giocare a "Indovina chi" (dove devi fare ipotesi su chi è nascosto), si bloccasse e dicesse cose senza senso.

2. Il "Bias della Fede" (L'IA crede alle bugie)
Le IA, proprio come gli umani, si lasciano ingannare da ciò che sembrano vero, anche se la logica dice il contrario.

  • Se la storia era assurda (es. "I dolci sono piccanti"), l'IA tendeva a dire: "No, non ha senso", anche se la logica della frase era corretta.
  • Se la storia era realistica, l'IA accettava la logica più facilmente.
  • Conclusione: Le IA non sono macchine fredde e logiche; hanno le stesse "pregiudizi" degli umani. Se una cosa sembra strana, lo scartano, anche se logicamente possibile.

3. Il problema del "Nessuna delle due"
C'era una categoria di domande dove la risposta corretta era "Nessuna delle due è una buona spiegazione" (perché l'ipotesi non spiega il fatto).

  • Le IA facevano una fatica terribile qui. Spesso sceglievano una risposta sbagliata (spesso quella negativa) invece di ammettere che non c'era una soluzione logica.
  • Metafora: È come se un detective, di fronte a un caso irrisolvibile, inventasse un colpevole a caso pur di non dire "Non lo so".

4. L'IA confonde i giochi
I ricercatori hanno scoperto che le IA spesso trattavano gli indovinelli da "Detective" (abduzione) come se fossero esercizi di matematica (deduzione). Cercavano una certezza assoluta dove invece serviva solo un'ipotesi plausibile.

Perché è importante?

Questo studio ci dice che le Intelligenze Artificiali sono ancora molto lontane dall'avere il "senso comune" umano.

  • Siamo bravi a fare ipotesi basate su esperienze di vita (abduzione).
  • Le IA sono brave a seguire regole, ma faticano a "immaginare" il perché delle cose quando le regole non sono perfette.

In sintesi: Se vuoi che un'IA ti aiuti a risolvere un caso poliziesco o a capire il "perché" di una situazione complessa nella vita reale, devi sapere che oggi tende a essere un po' goffa, confusa e troppo influenzata da ciò che le sembra "normale", proprio come un bambino che impara a ragionare.

Il futuro della ricerca sta nel insegnare alle IA a essere più flessibili, a capire che non tutte le risposte devono essere certezze matematiche, ma possono essere semplici, utili ipotesi.