Can LLMs Beat Classical Hyperparameter Optimization Algorithms? A Study on autoresearch

Bien que les méthodes d'optimisation d'hyperparamètres classiques surpassent les agents LLM autonomes, l'approche hybride « Centaur », qui combine l'état interne d'un algorithme classique comme CMA-ES avec un LLM, obtient les meilleurs résultats en permettant même à un petit modèle de 0,8 milliard de paramètres de surpasser des modèles plus grands.

Fabio Ferreira, Lucca Wobbe, Arjun Krishnakumar, Frank Hutter, Arber Zela

Publié 2026-03-27
📖 4 min de lecture☕ Lecture pause café

Each language version is independently generated for its own context, not a direct translation.

Imaginez que vous essayez de perfectionner une recette de gâteau (dans ce cas, un petit modèle d'intelligence artificielle) pour qu'il soit le plus délicieux possible. Le problème, c'est qu'il y a des milliers de façons de le faire : changer la quantité de sucre, la température du four, le temps de cuisson, etc. Ces réglages s'appellent des hyperparamètres.

L'objectif de cette recherche était de répondre à une question simple : Qui est le meilleur chef ?

  1. Un algorithme classique (un robot mathématique très rigoureux) ?
  2. Un agent IA (un grand modèle de langage comme un chatbot très intelligent) qui peut modifier la recette à la main ?
  3. Ou une équipe mixte qui combine les deux ?

Voici ce qu'ils ont découvert, expliqué simplement :

1. Le Robot Mathématique gagne sur le terrain connu

Les chercheurs ont d'abord donné aux participants une liste fixe de 14 ingrédients à ajuster (comme le robot CMA-ES ou TPE).

  • Le résultat : Les algorithmes classiques ont gagné haut la main. Ils sont comme des chefs de cuisine expérimentés qui ont une carte précise. Ils savent exactement où chercher, ils ne se perdent pas et ils trouvent la meilleure recette très vite.
  • Le problème de l'IA seule : Quand on a demandé à l'IA (un modèle de 27 milliards de paramètres) de choisir parmi cette même liste fixe, elle a eu du mal. Elle a souvent fait des erreurs (comme essayer de mettre trop de sucre, ce qui fait planter le four). Elle manquait de discipline et de mémoire pour se souvenir de ce qui avait déjà échoué.

2. L'IA brille quand elle a le droit de réécrire la recette

Ensuite, ils ont laissé l'IA faire ce qu'elle fait de mieux : modifier directement le code source (la recette elle-même), sans se limiter à une liste d'options.

  • Le résultat : Là, l'IA a rattrapé son retard ! Elle a pu dire : "Attends, je ne vais pas juste changer le sucre, je vais changer la façon dont on mélange la pâte."
  • La leçon : L'IA est excellente quand elle a de la créativité et de la liberté. Mais pour que ça marche, elle doit être grosse et puissante (comme le modèle de 27 milliards de paramètres). Un petit modèle (0,8 milliard) n'est pas assez intelligent pour réécrire la recette sans faire de bêtises.

3. La solution miracle : "Centaur" (Le Chevalier mi-homme, mi-cheval)

C'est ici que l'étude devient géniale. Les chercheurs ont créé une méthode hybride appelée Centaur.

  • L'idée : Imaginez un pilote de course (l'algorithme classique) qui connaît parfaitement la piste et la mécanique, assis à côté d'un copilote expert (l'IA) qui connaît la cuisine.
  • Comment ça marche : Le pilote conduit 70% du temps. Mais 30% du temps, il demande au copilote : "Hé, qu'en penses-tu ?" Le copilote regarde la situation, utilise son intuition, et suggère un petit ajustement. Le pilote accepte, ajuste la trajectoire, et continue.
  • Le résultat étonnant : Cette équipe mixte a gagné tous les prix.
    • Elle a trouvé la meilleure recette finale.
    • Elle a été plus stable (moins d'erreurs).
    • Le plus fou : Le petit copilote (0,8 milliard de paramètres) a même battu le grand copilote (27 milliards) ! Pourquoi ? Parce que le pilote (l'algorithme classique) gérait déjà la route difficile. Le copilote n'avait besoin que de petits conseils intelligents, pas de réécrire tout le livre.

En résumé, les grandes leçons de l'étude :

  • La fiabilité bat la diversité : Il vaut mieux éviter les catastrophes (comme faire fondre le four) que d'essayer des choses trop exotiques qui échouent. Les algorithmes classiques sont très bons pour éviter les pièges.
  • L'IA a besoin d'un cadre : Si vous laissez une IA seule dans un espace de recherche limité, elle est moins bonne qu'un robot mathématique. Mais si vous lui donnez la liberté de créer (modifier le code), elle devient très forte.
  • Le mélange est la clé : La meilleure stratégie n'est pas de choisir entre l'humain (ou l'IA) et la machine, mais de les mettre dans la même voiture. L'algorithme classique fournit la structure et la sécurité, tandis que l'IA apporte l'intuition et la créativité pour affiner les résultats.

En une phrase : Pour optimiser une IA, ne laissez pas l'IA conduire seule sur une route inconnue, et ne laissez pas non plus un robot rigide décider de tout. Mettez un robot au volant et un expert à côté pour donner des conseils, et vous aurez la meilleure performance possible.