Quantifying Hallucinations in Language Language Models on Medical Textbooks

Questo studio quantifica le allucinazioni nei modelli linguistici su testi medici, rivelando che LLaMA-70B-Instruct genera risposte non supportate dal 19,7% delle volte nonostante l'alta plausibilità, e dimostra una correlazione tra minori tassi di allucinazione e una maggiore preferenza da parte dei clinici.

Brandon C. Colelough, Davis Bartels, Dina Demner-Fushman

Pubblicato 2026-03-12
📖 4 min di lettura☕ Lettura da pausa caffè

Each language version is independently generated for its own context, not a direct translation.

Immagina di avere un assistente medico digitale super intelligente, che ha letto quasi tutti i libri di medicina esistenti. Sembra perfetto: parla con un tono professionale, usa termini tecnici corretti e sembra sapere tutto. Ma c'è un problema: a volte, questo assistente inventa cose.

Questa è la "allucinazione" (hallucination) di cui parla il paper. È come se l'assistente ti dicesse: "Certo, per curare quel mal di testa, devi bere un bicchiere di succo di limone e poi fare un salto mortale". Suona plausibile? Sì, il linguaggio è perfetto. È vero? No, è completamente inventato e pericoloso.

Ecco di cosa tratta questo studio, spiegato come se stessimo chiacchierando al bar:

1. Il Problema: L'Assistente che "Mente" con Eleganza

Gli scienziati del NIH (l'istituto di ricerca sanitaria americano) hanno scoperto che i modelli di intelligenza artificiale attuali, anche quelli più famosi, sono bravissimi a superare i test scolastici di medicina. Ma quando si tratta di rispondere a domande basate su un testo specifico (come un capitolo di un libro di testo), inventano circa il 20% delle volte.

È come avere uno studente che ha memorizzato le risposte del libro di testo, ma quando gli chiedi qualcosa di nuovo, invece di dire "non lo so", si mette a inventare una risposta che suona molto convincente. Per un paziente, questo è un rischio enorme.

2. L'Esperimento: La "Trappola" dei Libri di Testo

Per capire quanto spesso questi modelli mentono, i ricercatori hanno creato una trappola intelligente:

  • Hanno preso dei libri di medicina di pubblico dominio (libri vecchi ma veri).
  • Hanno usato l'IA per creare migliaia di domande basate esclusivamente su quei paragrafi.
  • Hanno poi chiesto all'IA di rispondere a queste domande.

L'obiettivo era vedere: l'IA risponde solo con quello che c'è scritto nel libro, o aggiunge cose di sua testa?

3. Le Scoperte Chiave

  • L'Inganno della Plausibilità: Il 98% delle risposte dell'IA sembrava perfetta. Grammatica, tono e termini erano impeccabili. Ma il 20% di quelle risposte "perfette" conteneva bugie o informazioni non supportate dal testo. È come se un truffatore parlasse con un accento inglese perfetto: ti fidi, ma ti sta rubando i soldi.
  • Dimensione non è tutto: Hanno provato con diversi modelli, dai piccoli ai giganti (fino a 70 miliardi di parametri). I modelli più grandi facevano meno errori (scendendo dal 27% al 9%), ma nessuno era perfetto. Anche il "gigante" sbagliava.
  • La Trappola delle Domande "Al Contrario": Hanno notato che l'IA sbaglia molto di più quando le domande sono formulate in modo "al contrario" (es. "Quale farmaco NON è sicuro?" invece di "Quale farmaco è sicuro?"). È come se l'IA avesse difficoltà a gestire la negazione, e in quel momento inizia a fantasticare.
  • La Lista della Spesa: Quando chiedevano all'IA di fare un elenco completo (es. "Elenca tutte le controindicazioni"), l'IA tendeva a dimenticare cose importanti o ad aggiungerne di inventate.

4. Il Giudizio dei Medici Reali

Per essere sicuri, hanno coinvolto veri medici. Questi hanno letto le risposte dell'IA e le hanno classificate: "Buona", "Accettabile" o "Cattiva".

  • Risultato: I medici erano d'accordo tra loro su quali risposte fossero pericolose.
  • Correlazione: Più un modello faceva meno allucinazioni, più i medici lo trovavano utile. Ma anche i modelli "migliori" avevano ancora errori.

5. La Conclusione: Non ancora pronti per il lavoro

Il messaggio finale è chiaro e un po' preoccupante: Non possiamo ancora fidarci ciecamente di queste intelligenze artificiali in medicina.

Anche se sembrano geniali, sono come un automobile autonoma che a volte si addormenta al volante. Se la usi per una passeggiata nel parco, forse va bene. Ma se la usi per un intervento chirurgico o per curare un paziente, serve sempre un pilota umano (un medico esperto) a controllare tutto.

Inoltre, il costo per far controllare queste risposte da un medico umano è altissimo. Finché non troveremo un modo per far controllare l'IA da un'altra IA in modo affidabile (cosa che oggi non sappiamo fare), l'IA in medicina rimarrà uno strumento potente ma che richiede sempre la supervisione di un umano.

In sintesi: L'IA è un assistente molto colto, ma tende a inventare storie quando non è sicuro. In medicina, dove la vita è in gioco, non possiamo permetterci di lasciarle la penna in mano senza un supervisore.