Selon un nouveau rapport, le Gpu nvidia Blackwell Ils sont positionnés comme l’option la plus rentable et la plus efficace dans les charges d’inférence de l’intelligence artificielle. Les données révèlent que sa plate-forme GB 200 NVL72 atteint des marges de prestations proches de 78%, dépassant clairement des rivaux tels que Google, AWS et, surtout, AMD.
GB 200 sont imposés à l’efficacité et à la rentabilité
L’étude s’est concentrée sur les fermes en inférence de 100 MW exploitées par différentes sociétés technologiques. Nvidia dirige la liste avec un 77,6% de marge bénéficiaireéquivalent à environ 3,5 milliards de dollars. Google occupe la deuxième position avec son V6E TPU, atteignant 74,9%, alors qu’AWS est en troisième place avec 62,5%.
Au contraire, AMD apparaît très à la traîne. Ses plates-formes MI355X enregistrent une marge négative de 28,2%, tandis que la génération précédente, MI300X, tombe à -64%. En termes de revenus de la puce, Nvidia fait à nouveau des différences: son GB 200 génère 7,5 $ par heurepar rapport à 1,7 $ avec le MI355X.
Le poids du logiciel dans l’avantage de Nvidia
Quelque chose qui émerge de l’analyse est que ce domaine est non seulement dû au matériel, mais aussi à la Optimisation de l’écosystème CUDA et au support de précision FP4. Ces améliorations ont permis à NVIDIA de maintenir des performances croissantes même dans les générations précédentes telles que la trémie. En revanche, AMD continue de renforcer son logiciel, bien que les résultats d’inférence ne parviennent toujours pas à rivaliser.
Quant aux coûts, le rapport indique que le Propriété totale (TCO) Sur les serveurs MI300X, il atteint 744 millions de dollars, très près des 800 millions de la plate-forme GB 200. Cependant, la différence de performance et d’avantages sociaux place Nvidia dans une position plus favorable.
Nvidia prévoit de lancer la version Blackwell Ultra cette année, qui offrirait 50% de performances supplémentaires par rapport au GB200, puis l’architecture Rubin en 2026. AMD, quant à lui, fonctionne dans la série MI400, qui arrivera l’année prochaine pour rivaliser avec Rubin et qui incorporera de nouvelles optimisations centrées sur l’inférence.