Large Language Models are Algorithmically Blind

Cette étude révèle que les grands modèles de langage souffrent d'une « cécité algorithmique » fondamentale, échouant systématiquement à raisonner correctement sur les processus computationnels malgré leurs vastes connaissances déclaratives.

Sohan Venkatesh, Ashish Mahendran Kurapath, Tejas Melkote

Publié 2026-03-03
📖 5 min de lecture🧠 Analyse approfondie

Each language version is independently generated for its own context, not a direct translation.

🕵️‍♂️ Le Titre : "Les IA sont aveugles aux algorithmes"

Imaginez que vous avez un super-intellectuel (un Grand Modèle de Langage, ou LLM) qui a lu tous les livres du monde. Il connaît par cœur les recettes de cuisine, l'histoire de Rome et la théorie de la relativité. Il peut même vous expliquer, avec des mots très précis, comment fonctionne un moteur de voiture.

Mais, selon cette étude, si vous lui demandez : "Si je mets ce moteur dans cette voiture précise, avec ce type de route et ce carburant, combien de kilomètres va-t-il faire avant de tomber en panne ?", il va échouer lamentablement.

C'est ce que les chercheurs appellent "l'aveugle algorithmique". L'IA a la théorie, mais elle est incapable de prédire la réalité pratique.


🧪 L'Expérience : Le Test de Vérité

Pour vérifier cela, les chercheurs (de l'Inde) ont organisé un grand test, un peu comme un examen de conduite pour les IA.

  1. Le Terrain de Jeu : Ils ont utilisé un domaine complexe appelé la "découverte causale" (trouver les liens de cause à effet dans des données, comme comprendre pourquoi une maladie survient).
  2. Les Joueurs : Ils ont pris 8 IA de pointe (les plus intelligentes du moment, comme GPT-5, Claude, Gemini, etc.).
  3. La Tâche : On a donné à chaque IA une description d'un problème et d'un algorithme (une méthode de calcul). On leur a demandé de prédire une fourchette de résultats (par exemple : "La précision sera entre 60 % et 90 %").
  4. La Réalité (Le "Ground Truth") : Pendant ce temps, les chercheurs ont fait tourner les vrais algorithmes sur des ordinateurs, 100 fois chacun, pour obtenir le résultat réel et exact.

📉 Le Résultat : Un Échec Total

Le résultat est sans appel et très surprenant :

  • Les IA sont "aveugles" : Dans 84 % des cas, la fourchette de prédiction donnée par l'IA ne contenait même pas le vrai résultat. C'est comme si un météorologue prédisait qu'il pleuvra entre 10h et 14h, alors qu'il pleut à 16h.
  • Elles sont pires que le hasard : Si vous fermiez les yeux et tiriez un nombre au hasard, vous auriez de meilleures chances de tomber juste que d'utiliser ces IA. Sept IA sur huit ont fait pire que le hasard !
  • Elles sont trop confiantes (mais fausses) : Les IA donnaient des fourchettes énormes (par exemple, "La précision sera entre 1 % et 99 %"). C'est une fourchette si large qu'elle devrait presque toujours être juste. Pourtant, même avec ces fourchettes gigantesques, elles rataient le vrai résultat la plupart du temps. C'est comme si un tireur visait un mur entier mais manquait quand même la cible.

🧠 Pourquoi ça rate ? La Mémoire vs La Compréhension

C'est ici que l'analogie devient intéressante. Pourquoi une IA si intelligente fait-elle une erreur aussi bête ?

Les chercheurs ont découvert que les IA ne comprennent pas comment fonctionnent les algorithmes. Elles font de la mémoire.

  • L'analogie du "Par cœur" : Imaginez un étudiant qui a appris par cœur les réponses d'un examen de l'année dernière.
    • Si vous lui posez la même question (un problème connu, comme le jeu "Sachs" ou "Asia" qui apparaissent souvent dans les livres), il donne une réponse correcte (ou presque).
    • Mais si vous lui posez une question légèrement différente (un nouveau problème synthétique qu'il n'a jamais vu), il panique. Il essaie de deviner en se basant sur des souvenirs flous, et il se trompe complètement.

L'étude montre que les IA réussissent un peu mieux sur les problèmes qu'elles ont "lus" dans leurs données d'entraînement, mais dès qu'elles doivent appliquer leur logique à une situation nouvelle, elles s'effondrent. Elles ne savent pas raisonner, elles savent seulement rappeler.

💡 La Leçon pour nous, humains

Cette étude nous donne un avertissement important pour l'avenir :

  1. Ne faites pas confiance aux IA pour choisir des outils techniques : Si vous demandez à une IA "Quel algorithme est le meilleur pour mon projet ?", elle va probablement vous donner une réponse qui sonne bien mais qui est fausse.
  2. Elles ne savent pas gérer l'incertitude : Les IA pensent qu'elles savent, mais elles ne savent pas combien elles ne savent pas. Elles sont dangereusement confiantes dans leurs erreurs.
  3. La différence entre "Savoir dire" et "Savoir faire" : Une IA peut vous expliquer la théorie de la gravité, mais elle ne peut pas prédire si votre fusée va exploser au décollage.

En résumé

Ces géants de l'intelligence artificielle sont comme des encyclopédistes brillants mais aveugles. Ils peuvent décrire le monde avec des mots magnifiques, mais ils sont incapables de prédire comment ce monde va se comporter dans la réalité. Pour l'instant, pour les tâches techniques et mathématiques précises, l'humain (ou le test réel) reste bien meilleur que l'IA.