MathScape: Benchmarking Multimodal Large Language Models in Real-World Mathematical Contexts

Ce papier présente MathScape, un nouveau benchmark évaluant les capacités de raisonnement mathématique des modèles de langage multimodaux à travers 1 369 problèmes réels, révélant ainsi leurs limites face aux scénarios du monde réel par rapport aux données synthétiques.

Hao Liang, Linzhuang Sun, Minxuan Zhou, Zirong Chen, Meiyi Qiang, Mingan Lin, Tianpeng Li, Fan Yang, Zenan Zhou, Wentao Zhang

Publié 2026-02-24
📖 4 min de lecture☕ Lecture pause café

Each language version is independently generated for its own context, not a direct translation.

🌍 MathScape : Le vrai test de mathématiques pour les intelligences artificielles

Imaginez que vous êtes un professeur qui veut tester la capacité de mathématiques de ses élèves. Jusqu'à présent, vous ne leur donniez que des exercices imprimés sur du papier blanc, parfaitement propres, avec des dessins au trait net. C'est ce qu'on appelle les benchmarks (tests de référence) actuels pour les intelligences artificielles (IA).

Mais dans la vraie vie, les élèves ne reçoivent pas toujours des copies parfaites. Ils reçoivent parfois :

  • Une photo floue d'un tableau noir prise avec un téléphone.
  • Une feuille de papier froissée posée sur une table en bois.
  • Un écran d'ordinateur avec un reflet de fenêtre.

C'est là que l'équipe de chercheurs (de l'Université de Pékin et d'autres) a lancé un nouveau défi : MathScape.

📸 1. Le concept : Passer du "Studio Photo" à la "Rue"

L'idée principale de ce papier est simple : les IA sont excellentes en salle de classe, mais elles se perdent dans la rue.

Les chercheurs ont créé une nouvelle banque de questions de mathématiques (1 369 problèmes au total) qui ne sont pas générées par ordinateur. Au lieu de cela, ils ont :

  1. Pris de vrais manuels scolaires et des devoirs.
  2. Imprimé ces pages.
  3. Photographié ces pages avec des appareils photo réels (comme le ferait un élève).
  4. Ajouté des défauts : des ombres, des angles bizarres, du papier froissé, de la lumière naturelle.

C'est comme si on passait d'un examen en salle climatisée avec une lumière parfaite, à un examen dans un bus bondé avec des secousses et une lumière changeante.

🤖 2. Le test : Les champions tombent à plat

Les chercheurs ont mis à l'épreuve les plus grandes intelligences artificielles du moment (comme GPT-4o, Claude, Gemini, etc.) avec ces photos réalistes.

Le résultat est surprenant :

  • En classe (sur des fichiers PDF propres) : Les IA sont des génies. Elles résolvent presque tout.
  • Dans la rue (sur les photos réelles) : Elles trébuchent. Même les modèles les plus avancés ont du mal à comprendre ce qui est écrit sur une photo floue ou mal éclairée.

C'est un peu comme un champion de natation qui nage parfaitement dans une piscine olympique, mais qui panique dès qu'on le jette dans l'océan avec des vagues et des algues.

📉 3. Ce que nous avons appris (Les 3 grandes leçons)

  1. La perfection n'est pas la réalité : Le fait qu'une IA soit très forte sur des images générées par ordinateur ne garantit pas qu'elle sera utile pour aider un élève qui prend une photo de son devoir.
  2. La difficulté augmente avec l'âge : Les IA réussissent mieux aux mathématiques de l'école primaire (qui sont souvent plus simples et visuelles) qu'aux problèmes complexes du lycée, surtout quand l'image est imparfaite.
  3. L'instabilité : Si vous posez la même question à une IA cinq fois de suite, elle peut donner cinq réponses différentes. Elle n'est pas encore aussi fiable qu'un humain pour ce genre de tâches.

🏗️ 4. Comment ils ont construit ce test ?

Pour créer MathScape, ils ont suivi une méthode rigoureuse, un peu comme la construction d'une maison :

  • Les fondations : Ils ont collecté des milliers de vrais problèmes scolaires.
  • La structure : Ils ont pris des photos de ces problèmes pour simuler la vie réelle.
  • La vérification : Ils ont engagé des experts (des étudiants en maths) pour vérifier que chaque photo et chaque réponse étaient correctes, assurant que le test était juste et fiable.

🚀 Conclusion : Pourquoi c'est important ?

Ce papier nous dit qu'il ne suffit plus de dire "Regardez, notre IA a un score de 90 % en maths !". Il faut maintenant demander : "Et si je lui donne une photo prise avec mon téléphone dans un bus ?".

MathScape est ce nouveau terrain de jeu. Il force les créateurs d'IA à améliorer leurs modèles pour qu'ils soient non seulement intelligents, mais aussi robustes et capables de comprendre le monde imparfait qui nous entoure. C'est une étape cruciale pour que ces outils puissent vraiment nous aider dans notre quotidien, et pas seulement dans des exercices théoriques.

Recevez des articles comme celui-ci dans votre boîte mail

Digests quotidiens ou hebdomadaires personnalisés selon vos intérêts. Résumés Gist ou techniques, dans votre langue.

Essayer Digest →