Ces dernières années, nous avons clairement appris une chose : derrière chaque grand modèle d’IA se cache une montagne de puces qui font des heures supplémentaires. Sans silicium, il n’y a pas de miracle. Google possède ses propres TPU, Amazon vante Trainium et Inferentia depuis un certain temps et, pendant ce temps, Microsoft a été un peu en retard, dépendant fortement de NVIDIA lors du lancement de ses Maia et Cobalt.
Maintenant, ce que vous commencez à voir est un plan légèrement différent : au lieu d’essayer de tout faire elle-même, elle va laisser OpenAI faire une grande partie du travail acharné, puis tirer parti de cet effort. Sur le papier, cela ressemble à un raccourci, mais c’est quelque chose de bien plus calculé que cela.
Un problème de puce qui ne peut être résolu avec un seul chéquier
Que Microsoft ait de l’argent à dépenser est évident, mais en puces, cela ne suffit pas. Concevoir vos propres accélérateurs est un processus lent et coûteux, truffé de décisions techniques qui ne peuvent être résolues avec un chéquier. La société a déjà introduit les processeurs Maia 100 et Cobalt 100 axés sur l’IA pour ses centres de données, en essayant de réduire la dépendance à l’égard de NVIDIA et de mieux aligner les performances d’Azure sur les besoins de ses services et de ses clients.
Le problème est que le reste du secteur n’est pas resté immobile. Google a plusieurs générations d’avance avec ses TPU, Amazon peaufine son catalogue de ses propres puces et, pendant ce temps, tout le marché continue de tourner autour des GPU NVIDIA.
Microsoft a compris qu’il avait à ses côtés un partenaire déjà plongé dans cette boue : OpenAI.
OpenAI conçoit, Broadcom fabrique… et Microsoft hérite
Le schéma qui se dessine a ses miettes. OpenAI travaille avec Broadcom sur ses propres puces d’IA et prévoit de déployer un nombre massif d’accélérateurs personnalisés dans les centres de données d’ici la fin de la décennie. L’objectif est de cesser de dépendre autant de tiers pour former et servir leurs modèles, en garantissant un approvisionnement plus prévisible et, ce faisant, en essayant d’empêcher la facture de monter en flèche encore plus.
Ce qui est intéressant pour Microsoft, ce n’est pas seulement que son partenaire ait commencé à concevoir du silicium, mais aussi la manière dont la relation a été renégociée. La nouvelle alliance vous donne un accès direct à la propriété intellectuelle de ces conceptions.
OpenAI et Broadcom se battent avec la partie la plus complexe (architecture, validation, mise au point des modèles géants) et, une fois celle-ci raisonnablement mature, Microsoft a la possibilité de s’en servir de base pour la déployer dans Azure.
Un long contrat et une exception marquante
Tout cela n’est pas vague, mais emballé dans un accord à long terme. Microsoft garantit l’accès aux modèles OpenAI pendant des années et, en même temps, les droits sur les conceptions des accélérateurs qu’ils construisent avec Broadcom. C’est une manière de protéger l’avenir d’Azure à une époque où l’IA n’est plus seulement un produit spécifique, mais le ciment qui unit la moitié d’un catalogue de services.
Il existe cependant une frontière claire: Le matériel grand public qu’OpenAI peut lancer est laissé de côté. Si demain l’entreprise propose ses propres appareils (lunettes, gadgets de bureau, etc.), cette partie n’entre pas dans le package.
Pendant ce temps, OpenAI continue de tisser son propre réseau d’accords avec des fabricants, explorant des conceptions personnalisées et utilisant leurs modèles pour tout optimiser, de la disposition des puces à la consommation dans les centres de données. Vous ne voulez pas simplement être « le client de quelqu’un » ; Il veut contrôler la chaîne autant qu’il le peut.
Pourquoi cela vaut la peine pour Microsoft de laisser quelqu’un d’autre transpirer pour cela
Cela peut paraître étrange qu’une entreprise de la taille de Microsoft décide de s’appuyer autant sur un tiers. pour quelque chose d’aussi critique, mais si vous regardez les chiffres, cela a beaucoup de sens. Construire une famille de puces IA compétitives à partir de zéro implique plusieurs générations d’essais et d’erreurs, de capacité de négociation avec les fonderies, de conception du système complet de la carte au rack et de supposer que certains paris ne se dérouleront pas bien.
Pour OpenAI, ce risque est presque inévitable: vit de ses modèles et est capable de les former et de les servir à grande échelle. Chaque fois que vous réalisez une amélioration de l’efficacité ou du coût par opération, vous le remarquez directement dans votre compte de résultat.
Microsoft, de son côté, doit répartir son attention sur mille fronts: Windows, Office, Copilot, Azure et tout le reste.
Bien sûr, tout n’est pas un avantage. S’attacher si étroitement à OpenAI signifie également assumer ses embardées. L’année dernière, nous avons déjà assisté à des tensions dans la gouvernance de l’entreprise, à des changements de cap, à des allées et venues au sein du conseil d’administration et à un scénario réglementaire qui s’intéresse de près à toute relation qui sent la concentration du pouvoir. Si demain OpenAI décide de donner la priorité à certains projets internes ou d’explorer d’autres partenaires matériels, Microsoft devra soigneusement mesurer jusqu’où il suivra cette voie.
En fin de compte, la décision de Microsoft a un caractère très pragmatique. Au lieu d’insister pour voyager seule sur un chemin déjà parcouru, elle a décidé de suivre le train de son partenaire le plus proche, en s’assurant contractuellement qu’elle ne se retrouve pas seule avec les miettes. Ce n’est pas la solution parfaite, loin de là, mais cela permet de gagner quelque chose qui vaut actuellement presque plus que de l’argent : du temps.