La conférence annuelle AWS re:Invent a servi de scène pour consolider l’une des alliances les plus importantes dans le domaine de l’infrastructure cloud. Amazon Web Services et NVIDIA ont annoncé une extension de leur collaboration stratégique qui, pour la première fois, amènera la technologie d’interconnexion NVIDIA directement au cœur du matériel propriétaire d’Amazon. Le mouvement cherche à répondre à la demande insatiable de capacité de calcul requise par la nouvelle génération d’intelligence artificielle.
Le cœur de cet accord réside dans l’adoption de NVIDIA NVLink Fusion par AWS pour le développement de ses puces sur mesure. Cela inclut la prochaine génération de processeurs Trainium4conçu spécifiquement pour la formation de modèles d’IA et de tâches d’inférence, ainsi que pour l’intégration dans les processeurs Graviton et le système de virtualisation AWS Nitro. Cette décision permettra à Amazon de combiner son silicium propriétaire avec l’architecture rack NVIDIA MGX, optimisant ainsi la vitesse et l’efficacité du déploiement de systèmes à grande échelle.
Cette intégration technique représente une rupture notable par rapport à la stratégie habituelle des fournisseurs de cloud, qui séparent généralement leurs développements matériels de ceux des fournisseurs tiers. En unifiant l’architecture évolutive de NVIDIA avec le silicium AWS, les deux sociétés visent à accélérer la mise sur le marché des nouvelles capacités d’IA, en créant une structure informatique plus dense et plus rapide pour gérer des charges de travail massives.
Usines d’IA et souveraineté des données
Au-delà du matériel, l’annonce parle pour la première fois du concept de Usines d’IA AWS. Il s’agit d’une nouvelle offre cloud conçue pour fournir une infrastructure dédiée aux gouvernements et aux grandes organisations qui doivent répondre à des exigences strictes en matière de souveraineté des données. Ces « usines » permettront aux clients de déployer des modèles massifs utilisant l’architecture Blackwell de NVIDIA, y compris les nouveaux serveurs HGX B300, tout en gardant un contrôle total sur la localisation et la confidentialité de leurs informations.
Dans le domaine des logiciels, la collaboration s’étend également aux modèles de langage et à la robotique. Les modèles ouverts NVIDIA Némotron ont été intégrés à la plateforme Amazon Bedrock, permettant aux développeurs de créer plus facilement des agents d’IA génératifs. En outre, l’accent a été mis sur l’IA physique. C’est pourquoi les modèles de base NVIDIA Cosmos seront disponibles sur les services AWS pour alimenter la formation et la simulation de robots, une industrie qui nécessite des ensembles de données complexes et des environnements de test virtuels haute fidélité.