Sommaire

En bref
- Google et Broadcom explosent le marché des TPU v7, avec 6-9 milliards $/an et une hausse de +60% pour Broadcom en 2023.
- Les TPU v7 (Ironwood) sont-ils vraiment meilleurs que les GPU Nvidia ? Les benchmarks restent flous, mais Google est convaincu.
- Anthropic s’offre 1 million de TPU : du jamais vu, mais est-ce vraiment une preuve de supériorité technique ?
—
T’as remarqué comme ça devient compliqué de suivre l’évolution des puces pour l’IA aujourd’hui ? Entre Nvidia, Google, AMD et les autres, c’est la guerre des ASIC et des GPU, et au milieu de tout ça, Broadcom vient de frapper fort avec son partenariat historique avec Google. Résultat ? Une action qui explose de +60% depuis le début de l’année, et tout ça grâce à une collaboration sur les TPU (Tensor Processing Units), ces petites puces magiques qui font tourner les modèles d’IA les plus avancés de Google.
Mais attends, c’est quoi exactement ces TPU v7 dont tout le monde parle ? Et pourquoi ça fait trembler Nvidia ? Plongeons-y ensemble.
—
Les TPU v7 (Ironwood) : les nouvelles armes de Google
Le TPU v7, alias Ironwood, est la dernière génération de puces conçues par Google en partenariat avec Broadcom. C’est un ASIC (Application-Specific Integrated Circuit) spécialisé pour les workloads d’IA, fabriqué en 5nm chez TSMC (la fonderie la plus en vogue du moment). Voici ce qu’il faut retenir :
- Architecture : Tensor cores, mémoire HBM3 (128GB), interconnexions ultra-rapides.
- Cible : Optimisé pour les modèles multimodaux (Gemini 3) et les longues séquences de raisonnement.
- Prix par token : Entre 0.8–1.2$ par million de tokens pour l’entraînement, contre 1.0–1.5$ pour un Nvidia H100.
Sur le papier, ça fait rêver, non ? Mais attention, ces chiffres viennent de Google et de Broadcom, donc il faut prendre ça avec des pincettes. Et franchement, il manque encore des benchmarks indépendants pour comparer ces TPU v7 aux GPU Nvidia dans des conditions réelles.
—
Broadcom et Google : une alliance qui paye
Ce partenariat entre Broadcom et Google, c’est pas nouveau. Ça dure depuis 2016 avec le lancement des premiers TPU. Mais là, avec les TPU v7, on passe clairement à la vitesse supérieure :
- Google a dépensé 6–9 milliards $ en 2023 pour ces puces.
- Anthropic, une startup qui bosse sur l’IA générative, s’est vu allouer 1 million de TPU. Oui, tu as bien lu : 1 million. C’est du jamais vu.
- Résultat pour Broadcom ? Une action qui frôle ses records, avec un bond de +10% en une journée.
Mais là, faut bien le dire, y’a des trucs qui restent flous. Par exemple, on ne sait pas combien coûte vraiment cet accès à 1 million de TPU. Ni si c’est aussi efficace que ça en pratique. En attendant, ça fait beaucoup de bruit dans le marché.
—
TPU v7 vs Nvidia H100 : qui est vraiment le meilleur ?
Bon, c’est LA question que tout le monde se pose. Sur le papier, les TPU v7 semblent avoir un meilleur rapport performance/prix que les GPU Nvidia, surtout pour les gros batches (ex: >128k tokens). Mais là encore, c’est compliqué de comparer, car ça dépend beaucoup des workloads spécifiques.
Voici un exemple de coût par token selon les analyses actuelles :
- Entraînement LLM :
- TPU v7 : 0.8–1.2$ par million de tokens.
- Nvidia H100 : 1.0–1.5$ par million de tokens.
- Inférence :
- TPU v7 : 0.1–0.3$ par million de tokens.
- Nvidia H100 : 0.2–0.4$ par million de tokens.
En gros, les TPU v7 semblent légèrement meilleurs pour les gros modèles, mais l’écart se réduit pour les petits modèles. Et là, franchement, on aimerait bien voir des benchmarks indépendants.
—
La roadmap des TPU vs GPU (2024–2025)
Si tu te demandes ce qui vient après les TPU v7, voilà un petit aperçu de ce qui se prépare :
- Broadcom/Google :
- 2024 : TPU v8 (Cascade Lake), focus sur mémoire unifiée.
- 2025 : Intégration avec Google Axion (un CPU ARM maison).
- Nvidia :
- 2024 : H200 (HBM3e, 141GB mémoire) et B100 (Grace Hopper Blackwell).
- 2025 : GB200 (Grace Blackwell, 72 cœurs ARM + 2x B100).
Bref, la guerre des puces pour l’IA est loin d’être terminée. Et on peut déjà parier que Nvidia ne va pas laisser Google et Broadcom s’imposer sans riposter.
—
Mon avis : C’est cool, mais méfiance
Alors, est-ce que Broadcom et Google sont en train de dominer le marché des puces pour l’IA ? Peut-être bien. Mais faut pas oublier que Nvidia reste un géant, et qu’il a encore des armes en réserve. Ce qui est sûr, c’est que les TPU v7 sont une avancée majeure, surtout pour les modèles multimodaux comme Gemini 3.
Maintenant, si tu bosses sur des projets IA, tu te demandes peut-être : « Est-ce que je devrais migrer vers des TPU ? » Honnêtement, ça dépend de tes besoins. Mais une chose est claire : les TPU v7 sont une option sérieuse à considérer, surtout si tu travailles sur des gros modèles.
Alors, toi, qu’est-ce que tu en penses ? Tu crois que Broadcom et Google vont vraiment renverser Nvidia ? Teste et dis-moi ! 😉


