mAceReason-Math: A Dataset of High-Quality Multilingual Math Problems Ready For RLVR

Ce papier présente mAceReason-Math, un jeu de données multilingue de haute qualité comprenant plus de 10 000 problèmes mathématiques complexes traduits dans 14 langues, spécifiquement conçu pour faciliter la recherche et l'évaluation du Reinforcement Learning with Verifiable Rewards (RLVR) au-delà du domaine anglophone.

Konstantin Dobler, Simon Lehnerer, Federico Scozzafava, Jonathan Janke, Mohamed Ali

Publié 2026-03-12
📖 4 min de lecture☕ Lecture pause café

Each language version is independently generated for its own context, not a direct translation.

Voici une explication simple et imagée de ce papier de recherche, conçue pour être comprise par tout le monde, même sans être expert en intelligence artificielle.

Imaginez que les grands modèles d'intelligence artificielle (les "cerveaux" numériques) sont comme des athlètes de haut niveau qui s'entraînent pour devenir des champions de résolution de problèmes mathématiques.

1. Le Problème : Un entraînement en "Langue Unique"

Jusqu'à présent, ces athlètes ne s'entraînaient qu'en anglais. C'est comme si un footballeur mondial ne jouait jamais que sur des terrains anglais, avec des règles expliquées uniquement en anglais.

  • La méthode d'entraînement : Les chercheurs utilisent une technique appelée "Renforcement par Récompense Vérifiable" (RLVR). C'est un peu comme un coach qui donne un point de bonus à l'athlète chaque fois qu'il trouve la bonne réponse à un problème difficile.
  • Le manque : Il existe des milliers de problèmes mathématiques très difficiles en anglais pour cet entraînement, mais presque rien dans les autres langues (français, allemand, japonais, etc.). De plus, les problèmes existants dans d'autres langues sont souvent trop faciles, comme des exercices de maternelle pour des champions olympiques.

2. La Solution : mAceReason-Math, le "Super-Kit Multilingue"

L'équipe de chercheurs (d'Apple et de l'Institut Hasso Plattner) a créé un nouveau trésor appelé mAceReason-Math.

  • Ce que c'est : C'est une immense bibliothèque de 140 000 problèmes mathématiques difficiles, traduits dans 14 langues différentes.
  • L'objectif : Permettre aux modèles d'IA de s'entraîner et de devenir des génies des maths, peu importe la langue dans laquelle on leur pose la question.

3. Comment ont-ils fait ? (Le processus de "Nettoyage et Traduction")

Traduire 140 000 problèmes complexes à la main coûterait une fortune et prendrait des années. Ils ont donc utilisé une méthode hybride, comme une chaîne de montage intelligente :

  • Étape 1 : Le Tri (Le Dépoussiérage)
    Imaginez que vous recevez une boîte de jouets, mais certains sont cassés, d'autres ont des étiquettes de magasin collées dessus, et certains sont en fait des instructions pour un autre jeu.
    Les chercheurs ont d'abord utilisé des robots (des algorithmes) et des IA pour nettoyer les problèmes originaux anglais. Ils ont jeté ceux qui étaient incomplets, ceux qui avaient la réponse écrite dans la question, ou ceux qui dépendaient d'images manquantes.

  • Étape 2 : La Traduction (Les Traducteurs Robots)
    Ensuite, ils ont demandé à une IA très avancée (Claude Sonnet 4) de traduire les problèmes restants. Mais attention, traduire des maths, ce n'est pas juste changer les mots !

    • Analogie : Si on traduit "12,345.67" (format américain) en allemand, il faut écrire "12.345,67". Si on ne le fait pas, le modèle d'IA sera perdu. L'IA a été programmée pour respecter ces règles culturelles et mathématiques précises.
  • Étape 3 : La Validation Humaine (Les Experts Natifs)
    C'est ici que la magie opère. Pour s'assurer que la traduction est parfaite, ils ont fait appel à des locuteurs natifs (des Français, des Japonais, des Russes, etc.).

    • Ils ont vérifié que le problème ne sonnait pas comme une traduction robotique ("traducto-lingue").
    • Ils ont corrigé les termes mathématiques : par exemple, en allemand, on ne dit pas "Séquence" pour une suite de nombres, mais "Folge". Les locuteurs natifs ont fait ces ajustements fins.

4. Le Résultat : Un Terrain de Jeu Équitable

Grâce à ce travail, ils ont créé deux types de jeux :

  1. Le jeu "Parallèle" : Les mêmes 7 620 problèmes, exactement les mêmes, dans les 14 langues. C'est parfait pour comparer les performances : "Est-ce que l'IA est aussi forte en japonais qu'en anglais ?"
  2. Le jeu "Complet" : Plus de 10 000 problèmes par langue, pour donner un entraînement massif.

Ils ont aussi créé un examen final (un test de 190 questions) vérifié par des humains, pour voir si les modèles apprennent vraiment.

5. Pourquoi est-ce important ?

Avant ce papier, si vous vouliez entraîner une IA à résoudre des maths en espagnol ou en swahili, vous n'aviez pas de matériel de qualité.

  • Avant : C'était comme essayer d'apprendre à nager avec des livres en chinois alors que vous ne parlez que chinois, mais les exercices sont écrits en anglais.
  • Maintenant : Grâce à mAceReason-Math, chaque langue a son propre "coach" et ses propres "exercices de haut niveau". Cela permet de créer des IA plus intelligentes, plus équitables et capables de comprendre le monde entier, pas seulement la partie anglophone.

En résumé : Les chercheurs ont construit un immense gymnase multilingue, rempli d'exercices de maths difficiles et parfaitement nettoyés, pour que les intelligences artificielles puissent devenir des champions mondiaux, quelle que soit la langue qu'elles parlent.