Gemini 3 : Google écrase GPT-5.1 et fait trembler Nvidia

·

·

5 min de lecture

Une image en 3D montre un GPU Nvidia stylisé, surmonté de blocs métalliques empilés et entouré de lignes de circuit bleues lumineuses. Des graphiques et des données flottantes suggèrent un progrès technologique, faisant écho à l'innovation d'une agence numérique de premier plan telle que Waikuu.

⚡ En bref

  • Gemini 3 a fait exploser les scores des benchmarks et propulsé Google vers une capitalisation de 4 000 milliards de dollars 💥.
  • Google Cloud fait un +34% de revenus, Meta veut louer leurs TPU au lieu d’acheter des H100… et Nvidia pleure.
  • Mais attention, tout n’est pas rose : coûts énergétiques flous et hallucinations sur les requêtes longues… comme d’hab.

Alors là, faut qu’on parle de Gemini 3. Ouais, encore un modèle d’IA, mais cette fois, c’est Google qui met tout le monde à l’amende. Tu sais, ce géant endormi qu’on accusait de \ »rater le train de l’IA\ » ? Bah figure-toi qu’il vient de renverser la table avec un modèle qui surpasse GPT-5.1 et Claude 4.5 sur quasiment tous les benchmarks. Résultat : Alphabet explose en bourse, Meta veut louer leurs TPU, et Nvidia perd 243 milliards de dollars en une journée. Genre, c’est pas rien.

Mais pourquoi ça fait autant de bruit ? En gros, Gemini 3 a validé une stratégie hyper ambitieuse : hardware + modèle + infra cloud. Google a tout misé sur ses TPU v5p (les fameuses puces Tensor) et une architecture multimodale unifiée. Et ça paye. Parce que là où OpenAI galère avec des pipelines séparés pour chaque type de donnée, Google a tout intégré dans un seul modèle. Résultat : des scores de malade, notamment 31.1% sur ARC-AGI-2 (contre 4.9% pour Gemini 2.5 Pro). Bref, c’est du lourd.

Les chiffres qui font mal

  • GPQA Diamond (raisonnement doctorat) : Gemini 3 écrase avec 91.9%, alors que GPT-5.1 n’a même pas divulgué son score. Pas très fair-play, OpenAI…
  • Humanity\’s Last Exam (sans outils) : Google obtient 37.5%, contre ~30% estimé pour GPT-5.1.
  • Raisonnement visuel (ARC-AGI-2) : 6 fois mieux que la version précédente de Gemini. Oui, tu as bien lu.

Et là, attention, parce que ça va plus loin que les benchmarks. Google a optimisé Gemini 3 pour tourner sur ses TPU v5p, ce qui rend l’inférence 30-40% moins chère que sur les GPU utilisés par ses concurrents. Et ça, ça fait une différence massive pour les clients cloud. D’ailleurs, Meta a tellement kiffé qu’ils négocient pour louer ces TPU à Google. Bah ouais, pourquoi acheter des H100 quand tu peux juste louer ce qui marche mieux ? Nvidia doit pas être content.

Le cloud, c’est la nouvelle guerre

Avec Gemini 3, Google Cloud a pris une avance énorme. Les revenus ont grimpé de +34% au Q3, et le carnet de commandes a bondi de +46% en un trimestre. Mais pourquoi ? Parce que Google a intégré ses TPU directement dans son infrastructure cloud, alors que AWS et Azure restent dépendants de Nvidia. Et ça, ça change tout.

Par exemple, si tu veux déployer Gemini 3 sur Vertex AI, il te faut :

  • Une machine n2-standard-16 avec 4 TPU v5p (ouais, ça envoie)
  • Une image Docker préconfigurée pour Gemini 3 (genre, tout est prêt)
  • Et bien sûr, un budget pour supporter l’autoscaling (parce que c’est pas gratuit, hein).

Et là, tu te dis, \ »OK, mais ça coûte combien ?\ ». Bah figure-toi que l’inférence sur Gemini 3 coûte environ 0.35$ par million de tokens (contre 0.60$ pour GPT-5.1). Donc ouais, c’est plus rentable. Et c’est exactement ce qui pousse des gros clients comme Meta à signer des contrats de plusieurs milliards de dollars.

Mais tout n’est pas rose

Alors oui, Gemini 3 est impressionnant. Mais faut pas oublier les points faibles :

  • Hallucinations : Sur les requêtes longues, le modèle raconte encore des conneries (source : un papier arXiv non cité, bah ouais).
  • Coût énergétique : Google ne dit rien sur la consommation de Gemini 3. À titre de comparaison, GPT-3 a englouti environ 500 MWh pour l’entraînement. Ça fait cher en facture EDF.
  • Comparaison floue : Pas de détails sur le nombre de paramètres ou la durée d’entraînement. OpenAI a mis 90 jours pour GPT-4, mais Google reste muet. Suspect, non ?

Et financièrement, ça donne quoi ?

Depuis le lancement de Gemini 3 le 18 novembre, l’action d’Alphabet a grimpé de +16%. Ça a ajouté 1 000 milliards de dollars à leur capitalisation, les propulsant à 4 000 milliards. Ouais, 4 000 milliards. Et cerise sur le gâteau, Berkshire Hathaway (ouais, le conglomérat de Warren Buffett) a investi 4.3 milliards dans Alphabet. Si même les vieux dinosaures de la finance misent sur Google, c’est que ça sent bon.

Mon avis sur tout ça

Franchement, Gemini 3 est un game-changer. Ça valide la vision de Google : hardware + modèle + cloud. Mais faut pas oublier que l’IA, c’est pas qu’une question de benchmarks. Les coûts énergétiques et les hallucinations restent des vrais problèmes.

Si t’es développeur ou que tu bosses dans le cloud, garde un œil sur Gemini 3. C’est peut-être le moment de te mettre à jour sur les TPU et Vertex AI. Et si t’es juste curieux, teste les snippets de code ou les commandes Cloud Shell pour voir ce que ça donne.

Allez, à plus dans le futur ! 😉

Tags :

Vous avez aimé cet article ?

Recevez les prochains directement dans votre boîte mail.