Baseline Performance of AI Tools in Classifying Cognitive Demand of Mathematical Tasks

Cette étude révèle que les outils d'intelligence artificielle, qu'ils soient généralistes ou dédiés à l'éducation, peinent à classer avec précision la demande cognitive des tâches mathématiques en raison d'une tendance systématique à privilégier les caractéristiques textuelles de surface au détriment des processus cognitifs sous-jacents, ce qui limite leur fiabilité pour soutenir la planification pédagogique des enseignants.

Danielle S. Fox, Brenda L. Robles, Elizabeth DiPietro Brovey, Christian D. Schunn

Publié 2026-03-06
📖 4 min de lecture☕ Lecture pause café

Each language version is independently generated for its own context, not a direct translation.

Voici une explication simple de cette étude, imagée comme si nous parlions d'un nouveau robot cuisinier dans une cuisine scolaire.

🍳 Le Contexte : Des chefs épuisés et un nouveau robot

Imaginez que les enseignants sont des chefs cuisiniers surmenés. Leur travail n'est pas seulement de servir le plat (enseigner), mais de préparer les ingrédients (adapter les leçons) pour que chaque élève puisse les manger et les comprendre.

Le problème ? Ils n'ont pas le temps. Ils doivent transformer des recettes complexes (des exercices de mathématiques) pour les rendre accessibles, tout en s'assurant qu'elles restent "nourrissantes" pour le cerveau (ce qu'on appelle la demande cognitive).

C'est là qu'intervient l'Intelligence Artificielle (IA). Les chercheurs se sont demandé : "Si on donne une recette de cuisine à un robot (l'IA), peut-il nous dire si ce plat est simple (juste de la farine et de l'eau) ou complexe (un soufflé au fromage qui demande de la technique) ?"

🔍 L'Expérience : Le test des 11 robots

Les chercheurs ont pris 11 robots (des outils d'IA) :

  • 6 robots "généralistes" (comme ChatGPT, Claude, Gemini) qui savent tout faire.
  • 5 robots "spécialistes" (comme Khanmigo, Magic School) qui sont censés être des experts en éducation.

On leur a donné 12 exercices de mathématiques (les "recettes") et on leur a demandé de les classer selon 4 niveaux de difficulté, en utilisant un guide de référence très strict (le "TAG").

📉 Les Résultats : Le robot est souvent "moyen"

Le verdict est sans appel : Les robots ne sont pas encore prêts à travailler seuls.

  1. La note globale : En moyenne, les robots ont eu raison 63 % du temps. C'est mieux que le hasard (comme deviner au pile ou face), mais loin de la perfection. Pour un chef, ce serait comme si un assistant vous disait "c'est cuit" alors que la viande est encore crue.
  2. Le mythe du spécialiste : Les robots "spécialistes pour l'éducation" n'ont pas été meilleurs que les robots "généralistes". Le robot le plus performant était d'ailleurs un généraliste (DeepSeek), mais même lui n'a pas dépassé 83 % de réussite.
  3. Le piège du "Moyen" : C'est le résultat le plus drôle et le plus inquiétant. Les robots ont une manie de la moyenne.
    • Quand un exercice était très facile (juste apprendre par cœur) ou très difficile (résoudre un problème complexe et créatif), les robots avaient peur de trancher.
    • Ils ont tendance à dire : "Hum, ce n'est ni trop simple, ni trop dur, c'est probablement 'moyen'."
    • C'est comme un client qui, face à un menu, commande toujours le plat du jour par peur de choisir un plat trop épicé ou trop fade. Ils évitent les extrêmes.

🕵️‍♂️ Pourquoi les robots se trompent-ils ?

En regardant de plus près leurs erreurs, les chercheurs ont découvert deux problèmes majeurs :

  • Ils lisent la couverture, pas le livre : Les robots se fient trop aux mots qu'ils voient à la surface. Si un exercice contient le mot "procédure" ou "formule", ils pensent automatiquement que c'est facile. Ils ne comprennent pas ce que l'élève doit faire dans sa tête.
    • Analogie : C'est comme si un robot jugeait un film d'horreur comme un film comique simplement parce qu'il y a un mot "rire" dans le scénario, sans comprendre l'ambiance réelle.
  • Ils donnent de fausses bonnes raisons : Quand un robot se trompe, il donne souvent une explication qui semble très intelligente et logique. Un enseignant débutant pourrait être trompé par cette "fausse sagesse".
    • Exemple : Un exercice demandait de créer une équation pour un problème réel (très difficile). Le robot a dit : "C'est facile, il y a une méthode standard". Il a manqué l'essentiel : l'élève devait inventer la méthode, pas juste l'appliquer.

💡 La Conclusion : Le robot est un assistant, pas un patron

Cette étude nous dit deux choses importantes :

  1. Ne confiez pas tout au robot : Si vous utilisez l'IA pour classer vos exercices de mathématiques sans vérifier, vous risquez de donner aux élèves des tâches trop faciles ou trop difficiles, car le robot va souvent "lisser" les extrêmes vers le milieu.
  2. L'humain reste indispensable : L'expertise de l'enseignant est irremplaçable. L'IA peut être un assistant de cuisine qui épluche les légumes ou suggère des idées, mais c'est le chef (l'enseignant) qui doit goûter le plat et décider s'il est prêt à être servi.

En résumé : L'IA est un outil prometteur, mais pour l'instant, elle est un peu comme un élève de primaire très intelligent qui a lu beaucoup de livres mais qui n'a jamais vraiment cuisiné. Elle peut aider, mais elle ne doit jamais remplacer le jugement de l'expert humain.