📑 Sommaire
⚡ En bref
- AMD vient de claquer un monumental revers à NVIDIA avec un modèle MoE à grande échelle entraîné sur GPU MI300X, et c\’est du lourd.
- ZAYA1, un modèle de 8,3 milliards de paramètres, écrase des mastodontes comme Llama-3-8B ou Gemma3-12B, et tout ça sans partitionnement d\’experts.
- Les 192 Go de HBM3 du MI300X et le réseau Pensando d\’AMD pourraient bien faire trembler le monopole de NVIDIA dans l\’IA.
—
Bon, on va pas se mentir, c\’est toujours un peu chiant de voir des news d\’IA où NVIDIA se pavane avec ses A100 ou H100, genre \ »Je suis le roi du monde\ ». Mais là, attention, AMD vient de dire : \ »Hé, tu peux dégager, j\’arrive.\ » Oui, AMD, LE AMD, vient de prouver qu\’il peut entraîner des modèles MoE de pointe sans les compromis fatigants que NVIDIA impose. Et franchement, ça sent le game changer.
Le contexte : NVIDIA règne, mais pour combien de temps ?
Depuis des années, si tu veux entraîner un modèle d\’IA un peu sérieux, tu as deux options :
- Utiliser du matos NVIDIA (A100, H100) et dépenser une fortune.
- Te débrouiller avec du bricolage et pleurer sur tes factures cloud.
Mais là, AMD vient de débarquer avec son MI300X, un GPU bourré de 192 Go de HBM3 et une bande passante mémoire de 5,3 TB/s. Et ce n\’est pas juste un GPU : c\’est un écosystème complet, optimisé pour l\’IA, avec un réseau Pensando et des optimisations logicielles qui, franchement, semblent être des tueurs.
—
ZAYA1 : le modèle qui fait trembler les grosses pointures
Le modèle en question, c\’est ZAYA1, créé par Zyphra (une boîte d\’IA basée à San Francisco). Avec 8,3 milliards de paramètres, dont seulement 760 millions actifs, ce modèle MoE (Mixture-of-Experts) a réussi à battre des monstres comme :
- Llama-3-8B de Meta dans les benchmarks de raisonnement (tu sais, le truc où un modèle doit comprendre des trucs pas évidents).
- Qwen3-4B d\’Alibaba en maths.
- Et il se rapproche même de Gemma3-12B de Google sur des tâches de codage.
Et là, tu te dis : \ »OK, mais c\’est normal, c\’est un modèle MoE, ça doit être super compliqué.\ » Eh non. C\’est justement là que c\’est fou : aucun partitionnement d\’experts ou de tenseurs. Tout se passe sur un seul GPU (oui, tu as bien entendu).
—
Le secret ? Moins de compromis, plus de simplicité
Le gros problème des modèles MoE entraînés sur NVIDIA, c\’est qu\’ils doivent faire des compromis pour gérer la mémoire et les E/S. Par exemple :
- Tensor Parallelism : tu divises les poids du modèle entre plusieurs GPU.
- Expert Parallelism : tu divises les experts MoE entre plusieurs GPU aussi.
Résultat ? Une complexité d\’entraînement qui te donne envie de pleurer, des bugs partout, et des coûts qui explosent. AMD, par contre, a résolu ça avec :
- Les 192 Go de HBM3 du MI300X, qui permettent de garder tout le modèle sur un seul GPU.
- Un réseau Pensando optimisé pour les E/S distribuées, ce qui réduit drastiquement les overheads de communication.
Et le truc cool ? Les temps de sauvegarde des checkpoints sont 10 fois plus rapides (enfin, d\’après AMD). Bon, on n\’a pas de baseline claire (vs quel modèle NVIDIA ?), mais ça a l\’air impressionnant.
—
Mais alors, ça veut dire quoi pour nous, pauvres mortels ?
Si tu es un geek qui suit un peu l\’IA, tu sais que NVIDIA domine le marché avec une part estimée à 94%. Mais là, AMD vient de montrer que, avec un écosystème bien pensé, on peut entraîner des modèles de pointe sans se ruiner ni s\’arracher les cheveux.
Certes, on parle \ »seulement\ » de 8,3 milliards de paramètres. C\’est encore loin des 1,8 trillion de GPT-4. Mais franchement, c\’est un début prometteur. Et si AMD continue sur cette lancée, on pourrait enfin voir un peu de concurrence sérieuse dans le monde des GPU IA.
—
Mon avis sincère
C\’est cool, c\’est innovant, et ça donne envie de croire qu\’on n\’est pas condamnés à dépendre de NVIDIA pour l\’éternité. Mais bon, il reste des zones d\’ombre. Par exemple :
- Les coûts : Combien ça coûte vraiment d\’entraîner un modèle comme ZAYA1 sur des MI300X ?
- Les benchmarks : On aimerait des tests indépendants pour vérifier les claims de performance.
- Le code : Est-ce qu\’AMD va partager un peu de son secret, ou on est condamnés à pleurer devant leurs white papers ?
Bref, c\’est un début, mais c\’est un début qui fait rêver. Et toi, tu en penses quoi ? Prêt à abandonner tes H100 pour un MI300X ? 😉



