Benchmarking Deflection and Hallucination in Large Vision-Language Models

Cet article présente VLM-DeflectionBench, un nouveau benchmark dynamique conçu pour évaluer la capacité des modèles vision-langage à gérer les conflits d'informations et à formuler des refus appropriés lorsque les connaissances récupérées sont insuffisantes ou trompeuses.

Nicholas Moratelli, Christopher Davis, Leonardo F. R. Ribeiro, Bill Byrne, Gonzalo Iglesias

Publié 2026-04-15
📖 5 min de lecture🧠 Analyse approfondie

Each language version is independently generated for its own context, not a direct translation.

🕵️‍♂️ L'Histoire : Le Détective qui voit des fantômes

Imaginez que vous avez engagé un super-détective (c'est le modèle d'IA) pour résoudre des énigmes complexes. Ce détective est très intelligent : il a lu des millions de livres (sa mémoire interne) et il a aussi des jumelles pour regarder des photos (sa vision).

Mais il y a un problème : ce détective a deux défauts majeurs :

  1. L'Hallucination : Parfois, il invente des faits. Il vous dit : "J'ai vu le voleur porter un chapeau rouge !" alors que dans la photo, il n'y a personne. C'est comme s'il voyait des fantômes.
  2. Le Manque d'Humilité (Pas de "Déviation") : Quand il ne sait pas vraiment, au lieu de dire "Je ne sais pas", il continue d'inventer une réponse pour faire joli. Il préfère mentir plutôt que d'avouer son ignorance.

Les chercheurs de cet article (Nicholas, Christopher et leurs collègues d'Amazon et d'autres universités) ont réalisé que les tests actuels pour évaluer ces détectives sont trop faciles. Ils ressemblent à des énigmes que le détective peut résoudre juste en se souvenant de ses livres, sans avoir besoin de regarder la photo ou de chercher des indices réels.

🛠️ La Solution : Le "VLM-DeflectionBench"

Pour tester la vraie honnêteté de ces détectives, ils ont créé un nouveau jeu d'énigmes appelé VLM-DeflectionBench. Voici comment ça marche, avec des analogies :

1. Le Filtre "Anti-Mémoire" 🧠

Avant de donner une énigme au détective, les chercheurs vérifient : "Est-ce que tu peux répondre juste en te souvenant de tes livres, sans regarder la photo ?"

  • Si oui, l'énigme est jetée à la poubelle.
  • Si non, elle est gardée.
    L'analogie : C'est comme si on enlevait toutes les questions de culture générale pour ne garder que celles qui demandent de regarder spécifiquement l'image ou un document récent. On force le détective à utiliser ses jumelles et ses recherches, pas juste sa mémoire.

2. Le Test des "Faux Indices" 🕵️‍♀️

Dans ce nouveau test, on donne au détective :

  • La photo de l'énigme.
  • Un dossier avec la vraie réponse (les indices d'or).
  • Mais caché dans le dossier, il y a aussi 10 fausses réponses (des leurres) qui semblent plausibles mais qui sont fausses.

Le but du jeu :

  • Si le détective trouve la vraie réponse en ignorant les faux indices : Bravo !
  • Si le détective se fait piéger par les faux indices et invente une réponse : C'est une hallucination.
  • Si le détective voit que les indices sont contradictoires ou insuffisants et dit : "Désolé, je ne peux pas répondre avec certitude" : C'est une déviation (le comportement idéal).

🎭 Les 4 Scénarios du Test

Les chercheurs ont testé les détectives dans 4 situations différentes, comme des niveaux de difficulté dans un jeu vidéo :

  1. Le Mode "Mémoire Pure" (Parametric) : On ne donne aucune photo ni aucun document. Juste la question.
    • Résultat attendu : Le détective devrait dire "Je ne sais pas". S'il répond, il hallucine.
  2. Le Mode "Parfait" (Oracle) : On donne uniquement la vraie réponse.
    • Résultat attendu : Il devrait répondre correctement. S'il invente, c'est qu'il ne sait pas lire.
  3. Le Mode "Réaliste" (Realistic) : On donne la vraie réponse mélangée à des fausses.
    • Résultat attendu : Il doit trouver la vraie et ignorer les fausses. C'est là que ça rate souvent !
  4. Le Mode "Piège" (Adversarial) : On ne donne que des fausses réponses.
    • Résultat attendu : Il doit absolument dire "Je ne peux pas répondre". S'il répond, il est tombé dans le piège.

📉 Ce qu'ils ont découvert (Les mauvaises nouvelles)

Après avoir testé 20 des meilleurs détectives du monde (y compris les modèles d'OpenAI, Google, Meta, etc.), voici ce qu'ils ont vu :

  • Ils sont trop confiants : Même quand les indices sont faux ou contradictoires, la plupart des modèles préfèrent inventer une réponse plutôt que de dire "Je ne sais pas". C'est comme un élève qui invente une réponse à un examen plutôt que de laisser la case vide.
  • Le texte domine l'image : Si le détective reçoit une photo vraie mais un texte faux, il fait souvent confiance au texte et ignore la photo. C'est comme si un détective regardait une photo du voleur, mais lisait un faux rapport disant "C'est un autre", et finissait par croire le rapport.
  • Plus il y a de bruit, plus ils hallucinent : Plus on ajoute de fausses informations dans le dossier, plus les modèles se trompent. Ils ne savent pas trier le bon du mauvais.
  • Les ordres stricts ne suffisent pas : Même si on leur dit très fermement "N'invente rien !", ils deviennent soit trop timides (ils ne répondent jamais, même quand ils savent), soit ils continuent d'inventer.

💡 La Conclusion en une phrase

Ce papier nous dit qu'il ne suffit pas de demander à une IA "Est-ce que tu connais la réponse ?". Il faut aussi lui demander "Es-tu capable de reconnaître quand tu ne sais pas ?".

Pour l'instant, nos super-détectives sont très forts pour trouver des réponses, mais ils sont encore très mauvais pour savoir quand s'arrêter. Ils ont besoin d'apprendre l'humilité pour être vraiment fiables dans le monde réel.

L'outil créé par les chercheurs est maintenant public, ce qui permet à tout le monde de continuer à tester ces détectives pour les rendre plus honnêtes et plus sûrs à l'avenir.

Recevez des articles comme celui-ci dans votre boîte mail

Digests quotidiens ou hebdomadaires personnalisés selon vos intérêts. Résumés Gist ou techniques, dans votre langue.

Essayer Digest →