Dans sa conférence Connect 2025, Huawei a mis la table plus qu’un calendrier de lancement: une stratégie à long terme pour se tenir dans le domaine de l’informatique pour l’intelligence artificielle. Le fabricant chinois a d’abord présenté son La mémoire HBM s’est développée en interne, En plus de détailler le prochain Génération d’accélérateurs de la famille Ascendavec lequel il espère rivaliser sans puce à puce, mais basé sur l’échelle et l’architecture du système.
La famille Ascend 950 comme point de départ
L’objectif le plus immédiat est dans le Ascension 950prévu pour le début de 2026 en deux variantes. D’une part, le Modèle 950pravec 128 Go de mémoire HBM et une bande passante de 1,6 To / s. De l’autre, le 950dtque Jusqu’à 144 Go de mémoire et évoluer la bande passante à environ 4 To / s. Les deux puces sont à la base de ce que Huawei soulève en tant qu’écosystème d’accélérateurs prêts à travailler ensemble.
La société sait qu’elle est toujours à l’origine de Nvidia en performances brutes par puce, mais sa proposition ne cherche pas à être la plus rapide individuellement, mais à gagner en performances supplémentaires lorsque des dizaines de milliers d’unités sont intégrées dans le même cluster.
Une feuille de route qui regarde au-delà de 2026
Huawei n’est pas resté immédiatement. Il a également dit que En 2027 et 2028, les familles montent 960 et 970 arriveraqui pariera sur une mémoire plus intégrée, des bandes passantes plus élevées et une compatibilité élargie avec des formats de précision tels que FP8, de plus en plus courants dans la formation IA à grande échelle.
Cette vision de continuité est essentielle pour convaincre les opérateurs de centres de données publics en Chine: une gamme de produits stable, avec des itérations prévisibles et une capacité de croissance.
SuperPods et Superclusters: Jouez grand
Le vrai jeu de Huawei est dans le Superpodesdes blocs modulaires qui composent ces accélérateurs et qui servent de briques de base pour construire ce qu’ils appellent Supercluster. Chaque supercluster est basé sur un nouveau protocole d’interconnexion appelé Plume et utiliser des liens optiques pour réduire la latence et augmenter la capacité de grimper sans goulot d’étranglement.
Selon la société, le supernode Atlas 950, prévu pour la fin de 2025, pourra exécuter des charges de travail Exaescala sur FP8. Plus tard, avec Atlas 960, le nombre de puces augmentera encore plus, pointant des niveaux de performances qui rivalisent avec le meilleur de l’Occident.
Le fait le plus frappant est celui de sa gamme de cluster de plage: Jusqu’à 524 exaflops en FP8 et un Zettaflop complet sur FP4, soutenu par 64 SuperPods Atlas et 524 288 accélérateurs travaillant en parallèle.
Comparaison avec nvidia
L’ampleur de ces chiffres met Huawei dans la même ligue que Colossus 2 de XAI, le plus grand cluster ouest en développement, qui utilisera plus de 550 000 GPU NVIDIA GB200 et GB300. Bien que Nvidia maintient l’avantage dans les performances de l’unité, Huawei veut démontrer qu’il peut atteindre des chiffres comparables à un niveau globalà condition que l’infrastructure d’énergie et de réseau nécessaire soit disponible.
L’approche Huawei répond à une réalité particulière: la Chine peut se permettre des centres de données avec des demandes d’énergie beaucoup plus importantes que d’habitude aux États-Unis ou en Europe. Dans l’ouest, les limitations du réseau et de la consommation forcent à hiérarchiser l’efficacité des puces, En Chine, il est possible de gravir des systèmes complets sans se soucier autant de la facture électrique.
Cette différence de contexte explique que Huawei parie sur un modèle à grande échelle, où la chose importante n’est pas tant la puce la plus puissante, mais la capacité de multiplier les nœuds et de les connecter avec son propre réseau d’interconnexion.
Avec la présentation du HBM propre et la carte d’itinéraire de l’Ascend 950, 960 et 970, Huawei indique clairement qu’il ne cherche pas à être un simple adepte de Nvidia ou AMD. Sa stratégie est de créer d’énormes systèmes, optimisés pour les charges de travail de l’IA à l’échelle nationale.
Si vous parvenez à matérialiser vos superclusters avec des centaines de milliers d’accélérateurs travaillant à l’unisson, l’entreprise pourrait modifier le débat: il n’essaierait plus de comparer les puces individuelles, mais pour mesurer quelle architecture peut maintenir la prochaine génération de formation de l’IA à l’échelle planétaire.