Architecture-Aware LLM Inference Optimization on AMD Instinct GPUs: A Comprehensive Benchmark and Deployment Study

Cette étude présente une évaluation comparative de l'inférence de grands modèles de langage sur les GPU AMD Instinct MI325X, démontrant que l'optimisation adaptée à l'architecture est cruciale pour maximiser le débit et la stabilité, tout en validant des performances élevées et une fiabilité totale sur des modèles allant jusqu'à 1 trillion de paramètres.

Athos Georgiou

Publié Thu, 12 Ma
📖 6 min de lecture🧠 Analyse approfondie

Each language version is independently generated for its own context, not a direct translation.

🏎️ Le Grand Défi : Faire courir des géants de l'IA sur des moteurs AMD

Imaginez que vous êtes le directeur d'une course automobile très spéciale. Vos voitures ne sont pas des bolides ordinaires, mais des géants de l'intelligence artificielle (des modèles de langage comme ceux qui écrivent des textes ou créent des images). Ces "voitures" sont immenses : certaines pèsent le poids de 1 000 milliards de pièces (paramètres) !

Le défi de ce rapport est de voir comment ces géants se comportent sur une nouvelle piste : les puces graphiques AMD Instinct MI325X. Jusqu'à présent, la plupart des courses se faisaient sur des puces NVIDIA. Ici, on teste si AMD peut tenir la route.

🚗 Les quatre concurrents (Les Modèles)

Pour l'épreuve, quatre modèles très différents ont été mis en ligne. On peut les comparer à quatre types de véhicules :

  1. Llama-3.1-405B : Le "Camion de Déménagement". C'est un modèle dense. Il utilise toutes ses pièces (405 milliards) pour chaque mot qu'il génère. C'est lourd, mais très puissant.
  2. DeepSeek V3.2 & Kimi-K2.5 : Les "Formules 1 à Expert". Ce sont des modèles MoE (Mixture of Experts). Imaginez une voiture avec 384 moteurs, mais qui n'en active que 8 à la fois selon le virage. Ils sont énormes (jusqu'à 1 000 milliards de pièces), mais très légers en fonctionnement car ils n'utilisent qu'une petite partie de leur cerveau à chaque instant.
    • Note : Kimi-K2.5 est le plus gros de tous (1 trillion de paramètres !).
  3. Qwen3-VL-235B : Le "Camion de Livraison Multimodal". Il peut lire du texte ET voir des images. C'est aussi un modèle "Expert" (MoE), mais il utilise une technologie différente pour gérer ses yeux (vision).

🛣️ La Piste et les Règles (Le Matériel AMD)

La course se déroule sur un circuit de 8 puces AMD MI325X.

  • La mémoire (HBM3e) : C'est le garage de la voiture. Chaque puce a un garage énorme de 256 Go. Avec 8 puces, vous avez un garage géant de 2 To (Téraoctets). C'est assez grand pour garer même le plus gros camion (Kimi-K2.5) sans avoir à le décharger sur le trottoir (la mémoire du CPU).
  • La bande passante (6 TB/s) : C'est la vitesse à laquelle les pièces peuvent entrer et sortir du garage. C'est le goulot d'étranglement principal.

🔧 Les Découvertes Clés (Ce que les ingénieurs ont appris)

1. Une seule clé ne ouvre pas toutes les portes (Optimisation "Architecture-Aware")

C'est la découverte la plus importante. On ne peut pas utiliser les mêmes réglages pour tous les modèles. C'est comme essayer de mettre des pneus de Formule 1 sur un camion de pompiers : ça ne marche pas.

  • Les modèles "Experts" (MoE) avec la technologie MLA : Ils sont très exigeants. Sur les puces AMD actuelles, ils doivent rouler très lentement (taille de bloc 1) et ne peuvent pas utiliser le "garage extérieur" (mémoire CPU). De plus, ils ont besoin d'un moteur spécial appelé AITER pour aller vite. Sans AITER, ils sont lents comme des tortues.
  • Les modèles "Denses" (GQA) : Ils sont plus flexibles. Ils peuvent utiliser le garage extérieur et rouler avec des réglages standards.
  • Le problème de Kimi-K2.5 : Ce modèle est si gros et utilise une technologie si récente (MXFP4) que le moteur spécial AITER ne fonctionne pas encore sur ces puces AMD. Il faut donc le désactiver et utiliser une méthode de secours plus lente.

2. Le mythe de la taille (Ce qui compte vraiment)

On pensait que plus la voiture est lourde (plus de paramètres totaux), plus elle est lente. Faux !
Ce qui compte, c'est le poids actif.

  • L'analogie : Imaginez un restaurant avec 100 cuisiniers (paramètres totaux). Si le chef n'en active que 5 pour préparer un plat (paramètres actifs), le plat sera préparé aussi vite que si le restaurant n'avait que 5 cuisiniers au total.
  • Résultat : Le modèle DeepSeek (qui n'active que 37 milliards de paramètres) va aussi vite que Llama (qui en active 405 milliards !). La taille totale du modèle n'est pas le frein, c'est le nombre de pièces utilisées à l'instant T.

3. Le goulot d'étranglement (La saturation)

Peu importe si vous avez un camion ou une F1, il y a un moment où tout le monde arrive au même point de saturation.

  • L'analogie : Imaginez un péage. Peu importe la puissance de votre moteur, si vous avez 500 voitures qui arrivent en même temps, le péage ne peut en traiter qu'un certain nombre par minute.
  • Le résultat : Sur ce circuit AMD, tous les modèles atteignent leur vitesse maximale vers 500 utilisateurs simultanés. Au-delà, on ajoute plus de voitures, mais le débit ne augmente pas. On obtient juste des files d'attente plus longues (plus de latence).
  • Pourquoi ? Ce n'est pas le moteur (le calcul) qui est faible, c'est la route (la mémoire) qui est trop étroite pour faire passer autant de données à la fois.

4. La fiabilité (100% de succès)

Malgré la pression extrême (jusqu'à 1 000 utilisateurs en même temps), aucun modèle n'a planté. Le système a géré la foule en les faisant patienter dans une file d'attente intelligente, plutôt que de les rejeter. C'est comme un excellent gestionnaire de trafic qui évite les embouteillages totaux.

📝 En résumé pour le grand public

Ce rapport nous dit trois choses essentielles pour l'avenir de l'IA sur les puces AMD :

  1. Il faut être sur mesure : On ne peut pas appliquer une solution unique à tous les modèles d'IA. Chaque architecture (MoE, Dense, MLA) a ses propres besoins en réglages.
  2. La taille totale n'est pas tout : Un modèle "intelligent" qui n'active que ses meilleurs experts peut être aussi rapide qu'un géant lourd, même sur du matériel AMD.
  3. La mémoire est le roi : Pour faire tourner ces géants, la vitesse à laquelle on peut lire les données (bande passante) est plus importante que la puissance brute de calcul. Les puces AMD MI325X sont excellentes pour cela, mais elles atteignent leurs limites quand on essaie de servir trop de monde en même temps.

Conclusion : AMD est maintenant un concurrent sérieux pour faire tourner les plus grands modèles d'IA du monde, à condition de bien connaître les spécificités de chaque modèle pour éviter les pièges techniques.