Rewriting Pre-Training Data Boosts LLM Performance in Math and Code

Ce papier présente deux nouveaux jeux de données pré-entraînés, SwallowCode et SwallowMath, générés par une méthode de réécriture systématique de données publiques qui améliore significativement les performances des grands modèles de langage en programmation et en raisonnement mathématique.

Kazuki Fujii, Yukito Tajima, Sakae Mizuki, Masaki Kawamura, Hinari Shimada, Taihei Shiotani, Koshiro Saito, Masanari Oi, Taishi Nakamura, Takumi Okamoto, Shigeki Ishida, Kakeru Hattori, Youmi Ma, Hiroya Takamura, Rio Yokota, Jun Sakuma, Naoaki Okazaki

Publié 2026-03-03
📖 5 min de lecture🧠 Analyse approfondie

Each language version is independently generated for its own context, not a direct translation.

🍳 Le Grand Buffet de Données : Pourquoi la qualité compte plus que la quantité

Imaginez que vous voulez apprendre à cuisiner (c'est-à-dire apprendre à un ordinateur à coder ou à résoudre des maths). Vous avez deux options :

  1. Le Buffet "Tout-Compris" : On vous donne 10 000 livres de cuisine, mais la moitié sont des pages arrachées, illisibles, ou écrites par des enfants de 5 ans qui ont dessiné des bonbons à la place des recettes.
  2. Le Buffet "Gourmet" : On vous donne 1 000 livres, mais chaque recette a été vérifiée par un chef étoilé, les fautes de frappe sont corrigées, et les ingrédients sont listés avec précision.

Les chercheurs de ce papier (de l'Institut des Sciences de Tokyo et d'AIST) ont réalisé que les intelligences artificielles (les LLM) actuelles sont comme des élèves brillants qui ont étudié dans le Buffet "Tout-Compris". Ils ont lu énormément de choses, mais beaucoup de ces données sont "bruitées" (sales, mal formatées, inutiles). Résultat : quand on leur demande de faire un code complexe ou un problème de maths, ils bafouillent.

🛠️ La Solution : Les "Swallow" (L'Art de la Transformation)

Au lieu de simplement jeter les mauvaises recettes (ce que font d'autres équipes en filtrant les données), les auteurs ont créé deux nouveaux ensembles de données, SwallowCode (pour le code) et SwallowMath (pour les maths).

Leur méthode s'appelle le "Transform-and-Retain" (Transformer et Conserver). C'est comme avoir un chef cuisinier robot ultra-intelligent qui prend vos vieilles recettes sales et les réécrit pour les rendre parfaites, sans en perdre une miette.

Voici comment ils ont fait, étape par étape, avec des analogies :

1. Pour le Code (SwallowCode) : Le Grand Nettoyage de Printemps

Ils ont pris un tas de code Python (The-Stack-v2) qui ressemblait à un grenier rempli de vieux objets.

  • Le tri grossier (Syntaxe) : Ils ont d'abord jeté tout ce qui ne fonctionnait pas du tout (comme des meubles cassés qu'on ne peut même pas soulever).
  • Le nettoyage fin (Pylint) : Ensuite, ils ont utilisé un détecteur de poussière pour repérer le code mal rangé (noms de variables bizarres, pas de commentaires).
  • La réécriture magique (Le Chef Robot) : C'est là que la magie opère. Au lieu de juste jeter le code "sale", ils ont demandé à une IA très intelligente (Llama-3.3) de le réécrire.
    • Analogie : Imaginez un étudiant qui écrit un devoir avec des fautes et des phrases confuses. Au lieu de le renvoyer à la maison, un professeur le prend, corrige l'orthographe, améliore la structure, ajoute des explications claires, et rend le devoir parfait.
    • Le résultat ? Le code est plus court, plus clair, et surtout autonome (il fonctionne tout seul sans avoir besoin de fichiers externes manquants).

2. Pour les Maths (SwallowMath) : Le Traducteur de Problèmes

Ils ont pris un corpus de maths (Finemath-4+) qui ressemblait à des copies d'élèves remplies de bruit (des publicités, des dates, des en-têtes de sites web).

  • Le Grand Sifflet : Ils ont retiré tout le "bruit" (les pubs, les métadonnées inutiles).
  • Le Remplissage : Si une question de maths était incomplète, l'IA a deviné le contexte manquant pour la rendre logique.
  • L'Explication Pas à Pas : Au lieu de donner juste la réponse finale (comme "x = 5"), l'IA a réécrit la solution pour expliquer comment on y arrive, étape par étape, comme un bon professeur.

📈 Les Résultats : Pourquoi c'est impressionnant

Ils ont testé cette méthode sur un modèle de base (Llama-3.1-8B) avec un budget de calcul fixe (comme si on avait le même temps de cuisson pour tous les plats).

  • Avant (avec les données sales) : Le modèle était moyen.
  • Après (avec SwallowCode et SwallowMath) : Le modèle a fait un bond en avant.
    • En codage, il a gagné +17 points de réussite sur des tests standards. C'est énorme ! C'est comme passer d'un apprenti cuisinier à un chef étoilé en quelques heures.
    • En maths, il a gagné +12 points sur des problèmes complexes.

💡 La Leçon à retenir

Le message principal de ce papier est simple : La qualité bat la quantité.

Jusqu'à présent, tout le monde pensait qu'il fallait juste plus de données pour améliorer les IA. Ce papier prouve que si vous prenez des données existantes et que vous les nettoyez et les réécrivez intelligemment, vous obtenez un modèle bien plus performant, même avec moins de données.

C'est comme si, au lieu d'essayer d'apprendre à un enfant en lui montrant 1 million de dessins mal faits, on lui donnait 100 dessins parfaits et bien expliqués. Il apprendrait beaucoup plus vite et beaucoup mieux.

En résumé : Les chercheurs ont créé une "usine à données propres" qui transforme le vieux code et les vieux problèmes de maths en or pur, permettant aux intelligences artificielles de devenir beaucoup plus douces en programmation et en calcul.

Recevez des articles comme celui-ci dans votre boîte mail

Digests quotidiens ou hebdomadaires personnalisés selon vos intérêts. Résumés Gist ou techniques, dans votre langue.

Essayer Digest →