Ref-Adv: Exploring MLLM Visual Reasoning in Referring Expression Tasks

Le papier présente Ref-Adv, un nouveau benchmark conçu pour évaluer le raisonnement visuel des modèles de langage multimodaux en éliminant les raccourcis cognitifs présents dans les tâches de compréhension d'expressions référentielles existantes, révélant ainsi leurs lacunes actuelles malgré leurs performances élevées sur les benchmarks standards.

Qihua Dong, Kuo Yang, Lin Ju, Handong Zhao, Yitian Zhang, Yizhou Wang, Huimin Zeng, Jianglin Lu, Yun Fu

Publié 2026-03-02
📖 5 min de lecture🧠 Analyse approfondie

Each language version is independently generated for its own context, not a direct translation.

Imaginez que vous êtes un professeur qui teste la capacité de compréhension de ses élèves (les modèles d'IA) en leur montrant une photo et en leur demandant de pointer du doigt un objet précis.

1. Le Problème : L'Examen Trop Facile

Pendant des années, les chercheurs ont utilisé des "examens" classiques (appelés RefCOCO) pour tester les IA. Mais il s'avère que ces examens sont piégeusement faciles, un peu comme si on demandait à un élève : "Montre-moi le chat" sur une photo où il n'y a qu'un seul chat.

L'IA n'a pas besoin de réfléchir. Elle regarde la photo, voit un seul chat, et pointe dessus. Elle a l'air intelligente, mais en réalité, elle a juste deviné ou utilisé un raccourci. C'est comme si un détective résolvait un meurtre en disant : "Le seul suspect dans la pièce est le coupable" sans jamais vérifier les preuves.

Les chercheurs ont remarqué trois défauts majeurs dans ces anciens examens :

  • Les questions sont trop courtes : "Le chien". Pas besoin de comprendre la grammaire ou les détails.
  • Il n'y a pas de fausses pistes : Si vous cherchez un chien, il n'y a pas de chats, de chats noirs ou de chiens qui ressemblent au vôtre pour vous embrouiller.
  • Les indices sont redondants : Parfois, la description est si longue et précise que l'IA peut ignorer la moitié de la phrase et trouver la réponse juste en regardant un seul mot.

2. La Solution : "Ref-Adv", le Nouveau Grand Oral

Pour corriger cela, l'équipe de l'Université Northeastern a créé un nouvel examen appelé Ref-Adv.

Imaginez que vous entrez dans une pièce remplie de 20 personnes qui portent toutes un t-shirt rouge. Le professeur dit :

"Trouvez la personne qui a des lunettes de soleil, qui ne porte pas de collier, et qui est assise à gauche de quelqu'un qui rit."

C'est là que ça devient intéressant. Pour réussir, l'IA ne peut plus se contenter de chercher "un t-shirt rouge". Elle doit :

  1. Lire et comprendre la phrase complexe (raisonnement textuel).
  2. Observer la photo pour trouver les lunettes, le collier manquant, et la position relative (raisonnement visuel).
  3. Éliminer les fausses pistes (les autres personnes en rouge).

C'est ce qu'on appelle un "distracteur dur" : quelqu'un qui ressemble beaucoup à la cible, mais qui ne correspond pas exactement à tous les détails de la description.

3. La Méthode : Comment ont-ils créé cet examen ?

Au lieu de demander à des humains de tout écrire (ce qui prendrait des années), ils ont utilisé une IA intelligente (comme GPT-4) pour aider à créer l'examen, mais avec une supervision humaine stricte.

Le processus ressemble à une chasse au trésor guidée par un robot :

  1. Sélection : Ils prennent une photo avec beaucoup d'objets similaires (ex: 3 tasses à café).
  2. Comparaison : L'IA identifie les deux tasses les plus semblables (les "rivaux").
  3. Différenciation : L'IA trouve les petits détails qui les distinguent (l'une a une fissure, l'autre est pleine).
  4. Création : Elle écrit une phrase précise pour cibler l'une des deux, en utilisant parfois la négation ("pas celle avec la fissure").
  5. Vérification humaine : Des humains vérifient que la phrase est claire et qu'il n'y a pas d'erreur.

4. Les Résultats : La Révélation

Quand ils ont passé cet examen "Ref-Adv" aux meilleures IA du monde (comme GPT-4o, Gemini, Qwen, etc.), la surprise a été totale.

  • Sur les vieux examens : Les IA avaient 90% de réussite. Elles semblaient géniales.
  • Sur le nouvel examen Ref-Adv : Leurs scores ont chuté drastiquement (souvent en dessous de 60%).

Ce que cela signifie :
Les IA sont devenues très bonnes pour "tricher" en utilisant des raccourcis sur les vieux examens. Mais dès qu'on leur demande de vraiment raisonner (combiner plusieurs indices, utiliser la négation, distinguer des objets très similaires), elles montrent leurs limites. Elles ont du mal à faire le lien entre ce qu'elles lisent et ce qu'elles voient avec précision.

5. L'Analogie Finale

Pensez à un enfant qui apprend à conduire.

  • Les vieux examens (RefCOCO) : C'est comme lui faire conduire une voiture sur une piste vide, sans autres voitures, avec un seul panneau "STOP" visible. Il réussit à chaque fois.
  • Le nouvel examen (Ref-Adv) : C'est le mettre dans une circulation dense, avec des panneaux flous, des piétons qui traversent et des voitures qui klaxonnent. Soudain, on se rend compte qu'il ne sait pas vraiment conduire, il savait juste suivre une ligne droite.

Conclusion

Ce papier nous dit : "Arrêtons de nous mentir sur les capacités de l'IA."
Nous avons créé un nouvel outil (Ref-Adv) pour tester la vraie intelligence visuelle et logique des machines. Les résultats montrent qu'il y a encore beaucoup de travail à faire pour que les IA comprennent vraiment le monde visuel, et pas seulement qu'elles reconnaissent des motifs simples. C'est une étape cruciale pour construire des robots et des assistants plus fiables et intelligents.

Recevez des articles comme celui-ci dans votre boîte mail

Digests quotidiens ou hebdomadaires personnalisés selon vos intérêts. Résumés Gist ou techniques, dans votre langue.

Essayer Digest →