IBM et AMD Allied pour stimuler le supercalculement quantique avec l’intégration du CPU, le GPU, le FPGA et les ordinateurs tolérants aux pannes

Lorsque deux acteurs différents sont assis à la même table, c’est parce qu’ils voient le même avenir. IBM et AMD ont rendu public Ils travailleront ensemble dans des architectures qui mélangent l’informatique quantique et les hautes performances classiques. Ce n’est pas une alliance de s’écarter, mais une tentative sérieuse de tourner quelque chose qui, jusqu’à présent, vivait dans des laboratoires et des démonstrations: qu’un vrai problème est haché et que chaque pièce est résolue par le moteur qui s’adapte le mieux, qu’il s’agisse d’une cubit ou d’un GPU.

L’idée a un sens pratique. Le Partie quantique Il sert ce que le silicium traditionnel évite des décennies (simulations atomiques, optimisations gigantesques, recherche dans des espaces combinatoires impossibles). Le Partie classique (Les accélérateurs CPU, GPU, FPGA et IA) restent avec tout ce qui nécessite une bande passante, une mémoire et une échelle: ingestion de données de masse, formation ou post-traitement. Dans ce « Take and DACA » est la grâce de l’approche hybride.

Bits et coudées, chacun à sa place

La différence entre les deux mondes n’est pas le marketing. Dans le classique, les bits valent 0 ou 1; Dans Quantum, les coudées peuvent représenter les superpositions et l’intermnement. Cette astuce physique Ouvrez les portes aux raccourcis mathématiques qui n’existent pas dans le classique. Mais la réalité fixe également des limites: avec les coudées, les erreurs apparaissent et doivent être corrigées; Le cycle de travail est encore fragile. C’est pourquoi cette alliance ne vend pas l’histoire pour remplacer quoi que ce soit, mais pour coordonner ce qui fonctionne déjà avec ce qui commence à décoller.

Qu’est-ce que chacun met sur la table

IBM arrive avec le muscle quantique (matériel et logiciel) et un écosystème ouvert qui semble déjà familier: Qiskit Pour programmer, Système quantique IBM deux En tant que plate-forme modulaire et une feuille de route qui examine les ordinateurs tolérants aux échecs avant la fin de la décennie. Ce n’est pas la théorie: l’entreprise a déjà montré une intégration directe avec Fugaku (Riken, Japon), l’un des superordinateurs classiques les plus rapides, et collabore avec les acteurs aussi disparates que la Cleveland Clinic, le gouvernement basque ou Lockheed Martin pour trouver des cas d’utilisation où l’hybride contribue à quelque chose de mesurable.

AMD apporte une expérience sur le terrain dans l’autre moitié de l’équation. Leur CPU EPYC et son instinct GPU Ils bougent Frontière (Oak Ridge), premier système d’Exaescala certifié, et Le capitaine (Lawrence Livermore), tous deux en haut du classement TOP500. En plus de la puissance, il fournit un FPGA et une pile de logiciels ouverts que les grands fournisseurs de cloud utilisent déjà pour des génératifs. Dit en bref: ils savent construire et exploiter la partie classique à l’échelle et avec des délais.

La démonstration qui marquera le ton

Le plan immédiat passe par un test conjoint cette année. L’idée est d’enseigner un Compléter le flux de travail où un ordinateur quantique IBM coordonne avec CPU, GPU et AMD FPGA pour exécuter un pipeline hybride. Ce n’est pas seulement « appeler un noyau quantique et revenir »: nous parlons d’orchestrer les queues de travail, de gérer la latence entre des mondes très différents et, surtout, de corriger les erreurs de temps réel. Ici, AMD peut jouer un rôle intéressant: une partie des défaillances quantiques a besoin d’un support classique rapide et prévisible.

Papier open source

Ce n’est pas un accident qu’il insiste sur les plates-formes ouvertes. Si les algorithmes hybrides sont verrouillés dans un SDK propriétaire, l’adoption sera lente. Avec Qiskit comme base et les batteries AMD exposées en standard, Les chercheurs et les entreprises peuvent travailler sans partir de zéro à chaque fois qu’il y a un changement de matériel. Cela compte autant que les chiffres de performance: il réduit les frictions et permet aux progrès de se déplacer d’un laboratoire à un environnement productif sans se perdre en cours de route.

Pourquoi cela compte-t-il au-delà de la théorie

Téléchargez au sol, ce qui est intéressant, c’est comment les tâches sont distribuées. Un pipeline de découverte de médicament peut déléguer la simulation fine des molécules et des liens dans la partie quantique, tandis que la pièce classique filtre des bibliothèques géantes, entraîne des modèles et valide les résultats à un rythme qu’une seule machine quantique ne pouvait pas supposer.

Dans les matériaux, les coudées exploreraient les configurations qui sont prohibitive aujourd’hui; Le supercalcul classique validerait, l’échelle à la main, les meilleurs candidats. En logistique, le La formulation du problème serait résolue avec des stratégies quantiques tandis que le système traditionnel ingère et met à jour les données du monde réel en temps presque réel. Ce ne sont pas de vagues promesses, mais de diviser et de gagner.

Obstacles que personne ne cache

Le travail reste à venir et il faut le dire sans environnement. Dans Les coudées exigent des codes de correction coûteux; L’orchestration d’un flux hybride introduit des latences qui doivent être contrôlées; Les centres de données ne sont pas conçus (encore) pour vivre avec des cryogénia à grande échelle. Il y a aussi une question de coûts: La partie classique est déjà chère; L’ajout de quantum sans rendement clair serait un luxe. La bonne nouvelle est que l’alliance aborde ces pièces simplement: intégration, correction et normalisation.

La morale est simple: l’avenir de l’informatique ne sera pas « quantique » ou « classique », il sera mitigé. Et quiconque obtient les deux moitiés à parler sans frottement aura un avantage. L’alliance entre IBM et AMD est juste cela: moins PowerPoint, plus de vrais tuyaux entre deux mondes qui, enfin, commencent à s’adapter.