Benchmarking Deflection and Hallucination in Large Vision-Language Models

Questo lavoro presenta VLM-DeflectionBench, un benchmark dinamico e un protocollo di valutazione dettagliato progettati per testare la capacità dei modelli visione-linguaggio di gestire evidenze conflittuali o insufficienti e di rifiutare di rispondere quando le informazioni sono inadeguate, superando i limiti delle valutazioni tradizionali soggette a rapida obsolescenza.

Nicholas Moratelli, Christopher Davis, Leonardo F. R. Ribeiro, Bill Byrne, Gonzalo Iglesias

Pubblicato 2026-04-15
📖 5 min di lettura🧠 Approfondimento

Each language version is independently generated for its own context, not a direct translation.

Immagina di avere un assistente personale super intelligente, capace di vedere le foto che gli mostri e di leggere milioni di libri per darti risposte. Questo è quello che chiamiamo LVLM (Large Vision-Language Model), un'intelligenza artificiale che unisce vista e linguaggio.

Il problema è che, a volte, questo assistente è un po' come un bambino che vuole sempre avere ragione: anche quando non sa la risposta o quando le informazioni che ha sono confuse, tende a inventarsi una storia (allucinazione) invece di dire: "Scusa, non lo so".

Gli autori di questo paper hanno creato un nuovo "campo di prova" chiamato VLM-DeflectionBench per insegnare a queste macchine a essere più oneste. Ecco come funziona, spiegato con delle metafore semplici:

1. Il Problema: L'Assistente che "Sbuffa"

Immagina di chiedere a un cuoco esperto: "Come si fa il dolce X?".

  • Scenario ideale: Il cuoco guarda la ricetta (i dati), la legge e ti dice la ricetta perfetta.
  • Scenario reale (il problema): Spesso il cuoco non trova la ricetta, ma invece di dirti "Non ho la ricetta", ti inventa un dolce a caso e te lo serve con sicurezza. Oppure, se gli dai una ricetta sbagliata (rumore), lui la segue comunque e ti rovina il dessert.

Nell'IA, questo si chiama allucinazione. L'obiettivo di questo studio è far sì che l'IA impari a fare il "deflection" (deviazione/rifiuto): cioè, quando non ha le prove, deve avere il coraggio di dire: "Non posso rispondere con certezza".

2. La Soluzione: Un Esame a Sorpresa Dinamico

Prima di questo studio, i test per le IA erano come vecchi quiz scolastici: una volta che l'IA aveva imparato le risposte a memoria (grazie alla sua formazione), superava il test senza bisogno di cercare nulla. Era come se l'IA avesse imbrogliato guardando le risposte sul libro prima dell'esame.

Gli autori hanno creato un sistema dinamico, come un allenatore di calcio molto severo:

  • Filtro 1 (Il Controllo): Prima di mettere una domanda al test, l'allenatore chiede: "Sei capace di rispondere a questa domanda senza guardare il libro?". Se l'IA sa già la risposta a memoria, la domanda viene scartata. Vogliamo solo domande che obbligano l'IA a cercare informazioni esterne.
  • Filtro 2 (La Trappola): Per ogni domanda, preparano due tipi di "libri":
    • Il Libro d'Oro: Contiene la risposta giusta.
    • Il Libro della Menzogna: Contiene informazioni confuse o sbagliate che sembrano plausibili ma non lo sono.
  • Fase 3 (Il Test): L'IA deve scegliere cosa leggere e rispondere.

3. I Quattro Scenari del Test

Il paper mette l'IA in quattro situazioni diverse, come se fosse un attore in quattro scene di un film:

  1. Senza Aiuto (Parametric): L'IA deve rispondere solo con quello che sa già. Qui dovrebbe dire "Non lo so" quasi sempre, perché le domande sono difficili.
  2. Con la Verità (Oracle): L'IA ha solo il "Libro d'Oro". Qui dovrebbe essere perfetta.
  3. La Realtà (Realistic): L'IA ha sia il "Libro d'Oro" che il "Libro della Menzogna" mescolati insieme. È la situazione più difficile: deve capire quale libro leggere.
  4. L'Inganno (Adversarial): L'IA ha solo il "Libro della Menzogna". Qui il comportamento ideale è dire subito: "Non posso rispondere, le informazioni che ho sono sbagliate".

4. Cosa Hanno Scoperto? (I Risultati)

Hanno fatto fare questo test a 20 delle IA più potenti al mondo (sia quelle gratuite che quelle costose come quelle di Google o OpenAI). Ecco cosa è saltato fuori:

  • L'IA è troppo sicura di sé: Anche quando le informazioni erano sbagliate o mancanti, la maggior parte delle IA continuava a inventarsi risposte invece di ammettere il fallimento. È come se un navigatore GPS, anche se non avesse segnale, continuasse a dirti di girare a destra con assoluta certezza, portandoti fuori strada.
  • Le parole battono le immagini: Se l'IA vedeva un'immagine corretta ma leggeva un testo sbagliato accanto, tendeva a fidarsi del testo sbagliato. È come se, guardando un'auto rossa, ma leggendo un cartello che dice "Questa è una bici blu", l'IA decidesse che è una bici blu.
  • Più rumore, più errori: Più informazioni sbagliate (distrattori) mettevano nel test, più l'IA si confondeva e inventava cose, invece di fermarsi a pensare.

5. Perché è Importante?

Questo studio ci dice che non basta chiedere all'IA "Quanto sai?". Dobbiamo chiederci: "Come ti comporti quando non sai?".

Un assistente affidabile non è quello che risponde sempre (anche se sbaglia), ma è quello che sa quando fermarsi e dire: "Ehi, qui le informazioni non bastano, non voglio inventare".

In sintesi: Gli autori hanno costruito un nuovo tipo di "esame" che non premia solo l'intelligenza, ma l'onestà intellettuale dell'IA. Hanno dimostrato che oggi le macchine sono ancora molto brave a mentire (allucinare) quando sono confuse, e che abbiamo bisogno di insegnar loro a dire "Non lo so" con la stessa sicurezza con cui dicono "La risposta è X".

Tutti i dati e il codice per questo test saranno presto disponibili per tutti, così che chiunque possa continuare a migliorare queste macchine, rendendole più sicure e affidabili per il mondo reale.

Ricevi articoli come questo nella tua casella di posta

Digest giornalieri o settimanali personalizzati in base ai tuoi interessi. Riassunti Gist o tecnici, nella tua lingua.

Prova Digest →