Calcul intensif 2025 (SC25) Il ne s’agit pas d’un simple congrès HPC de plus. Cette année, la conversation a clairement tourné autour de la convergence entre calcul haute performance et intelligence artificielle, et SK hynix a profité de l’occasion pour envoyer un message très direct : sans mémoire à la hauteur, toute cette puissance CPU et GPU reste timide.
Sous la devise « La mémoire, moteur de l’IA et de l’avenir »la société a présenté à l’événement un catalogue assez complet de HBM, de serveurs DRAM et d’eSSD conçus spécifiquement pour les centres de données de nouvelle génération, les grands modèles d’IA et les simulations scientifiques. Et il ne s’est pas arrêté là : il a également montré des démos de la mémoire CXL, des systèmes d’IA axés sur la mémoire et du stockage informatique OASIS, montrant clairement où il voit l’avenir de l’infrastructure de données.
HBM4 et HBM3E : plus de canaux, plus de bande passante et moins de watts
La zone la plus attractive était réservée au HBM de dernière génération. SK hynix a montré son HBM4 12 couchesprésenté comme un développement pionnier au niveau mondial. La clé n’est pas seulement d’empiler davantage, mais aussi de savoir comment communiquer avec le reste du système : ce HBM4 intègre 2 048 canaux d’E/Sle double de celui de la génération précédente, ce qui se traduit par une augmentation très importante de la bande passante effective.
A cela s’ajoute un amélioration de plus de 40% de l’efficacité énergétiquequelque chose qui, dans un monde de GPU qui atteignent ou dépassent déjà les 700 W, fait la différence entre un serveur gérable et un serveur qui vit à la limite des limites de son rack.
Avec HBM4, le HBM3E 12 couchesqui est aujourd’hui la solution commerciale HBM la plus performante du marché et est utilisée avec des GPU tels que le Grace Blackwell GB300 de NVIDIA. C’est, en pratique, le pont entre le présent et le futur immédiat des accélérateurs d’IA.
DRAM DDR5 pour les serveurs qui ne peuvent pas se permettre de manquer de mémoire

La deuxième étape du pari de SK hynix passe par le DRAM du serveur. En SC25, ils ont enseigné modules basés sur DDR5 et nœud 1cla sixième génération de son procédé 10 nm. Parmi eux figurent des RDIMM et des MRDIMM destinés au marché des serveurs de nouvelle génération, en plus des modules RDIMM DDR5 3DS de 256 Go et des MRDIMM DDR5 « Tall » de 256 Go.
L’objectif est ici double : d’une part, offrir plus de capacité par socket, permettant aux opérateurs de datacenters de faire évoluer la mémoire sans avoir à multiplier les serveurs ; d’autre part, améliorer la vitesse et l’efficacité énergétique afin que les environnements hautes performances maintiennent la stabilité même en mélangeant des charges d’IA, des bases de données volumineuses et des services en temps réel.
eSSD haute capacité : de la NAND 4D au QLC 321 couches

En stockage solide, SK hynix a pratiquement pris tout son arsenal. Des unités ont été vues PS1010 E3.S et PE9010 M.2 basé sur 176 couches 4D NAND, ainsi que sur le PEB110 E1.S qui va déjà jusqu’à 238 couches NAND. Ce sont des solutions conçues pour les serveurs qui doivent allier taille, performances et efficacité énergétique dans des formats de plus en plus compacts.
La partie la plus agressive vient cependant du QLC NAND. L’entreprise a montré à partir de l’eSSD comment le PS1012 U.2 avec QLC, jusqu’à PS1101 E3.L de 245 To, construit sur QLC NAND à 321 couches, actuellement le plus élevé du secteur.
Toutes ces unités profitent des interfaces PCIe 4.0 et 5.0 pour offrir un débit conforme à la demande des accélérateurs actuels.
CXL et mémoire hétérogène : au-delà de la typique « extension de RAM »

SK hynix a également montré un système de mémoire hétérogène en collaboration avec Montage Technologyoù un module CXL DDR5 (CMM-DDR5) et un MRDIMM sont combinés pour démontrer comment la capacité de mémoire peut être évolutive de manière flexible et également améliorer les performances globales du système.
Une autre manifestation s’est concentrée sur le MMT-Axun accélérateur de mémoire CXL qui intègre des capacités informatiques au sein de la mémoire elle-même.
De plus, une machine a été présentée IA centrée sur la mémoire basée sur la mémoire poolée CXL. Dans cette approche, plusieurs serveurs et GPU se connectent à un pool de mémoire commun, sans avoir besoin d’un réseau traditionnel, pour exécuter des tâches d’inférence distribuées sur des modèles de langage étendus (LLM). Il s’agit, d’une certaine manière, d’un aperçu de ce à quoi pourraient ressembler les clusters d’IA lorsque CXL arrivera à maturité.
OASIS : quand le stockage se met aussi à calculer

L’autre grand élément de la vision de SK hynix est OASIS (Object Analytics Storage pour le déchargement SQL intelligent)un système de stockage de nouvelle génération basé sur un CSD (Computational Storage Device) sensible aux données. L’idée ici est que le stockage cesse d’être un lieu passif où seuls les blocs sont lus et écrits, et commence à exécuter une partie du travail d’analyse.
Dans une présentation, Bientôt Yeal Yangresponsable technique de Solution SW, a fait valoir que les goulots d’étranglement dans les canaux d’E/S lors de l’analyse des données HPC dégradent les performances globales et augmentent les coûts. Leur proposition est précisément OASIS : un système de stockage informatique interopérable et basé sur des normes qui répartit intelligemment la charge et permet d’optimiser l’infrastructure sans la repenser à partir de zéro.
Dans un environnement où les modèles se développent, les bases de données explosent et les centres de données recherchent désespérément plus de performances par watt, la mémoire passe du statut de simple composant à celui de pièce qui donne le ton. Et SK hynix, vu ce qu’il a enseigné au SC25, est très clair sur le fait qu’il veut être celui qui donnera ce rythme au cours de la prochaine décennie.