SK hynix apporte une mémoire HBM4 de 2 To/s, des SSD de 245 To et sa vision tout-en-un pour l’ère de l’IA au Dell Technologies Forum 2025

La scène est familière : un grand forum d’entreprises (cette fois, le Dell Technologies Forum 2025 à Séoul) et un fabricant de semi-conducteurs déterminé à faire la une des journaux. Mais SK hynix n’était pas qu’une simple démo. Sous le slogan « Gardiens de l’IA », les Sud-Coréens ont porté un catalogue qui ne se vante pas seulement de sa puissance technique ; a une stratégie. Et cette stratégie implique d’occuper, pièce par pièce, toute la carte de mémoire et de stockage qui alimente l’intelligence artificielle, depuis la formation de modèles gigantesques jusqu’à l’inférence en périphérie.

HBM4 : la nouvelle barre mémoire pour l’IA

Le HBM4 était la star du stand. Non pas à cause de l’affiche, mais à cause de ce qu’elle implique : le développement est terminé et le système de production de masse est prêt ; un message qui revient à « nous sommes prêts pour le volume », là où les guerres du silicium sont gagnées (ou perdues). Le chiffre qui se répète est accablant: 2 To/s de bande passante, soit un déplacement de 2 000 Go chaque seconde. Traduit en quelque chose de banal : un fichier de 20 Go (un master vidéo 4K) en un centième de seconde. C’est ce dont les accélérateurs ont besoin lorsque le goulot d’étranglement ne réside plus dans le GPU, mais dans la quantité de mémoire utile que vous pouvez vous en rapprocher.

Derrière la figure il y a l’ingénierie: empilés en 12 couches, TSV pour faire communiquer verticalement la puce et Advanced MR-MUF pour améliorer l’intégrité mécanique et thermique de l’assemblage. Ce n’est pas un hasard s’ils ont partagé la vitrine avec une NVIDIA GB300 Grace Blackwell équipée du HBM3E : c’est une manière de dire « nous pouvons servir aujourd’hui et nous ancrons la prochaine génération ».

DRAM pour tout : de la poche au rack

Le deuxième pilier était la DRAM. LPDDR5X mérite l’attention pour une raison claire : si l’IA s’oriente vers l’appareil (traduction locale, résumés, améliorations de la caméra), chaque milliwatt compte. LPDDR5X offre des fréquences élevées avec une faible consommation, l’équilibre qui permet d’économiser l’autonomie des téléphones mobiles, des tablettes et des ordinateurs portables fins.

A vos côtés, LPCAMM2 a mis sur la table quelque chose que le secteur PC demandait– Modules compacts, performants et remplaçables. La promesse est simple : regroupez les performances du LPDDR5X dans un facteur de forme qui ne vous condamne pas à une mémoire soudée. Dans un ordinateur portable orienté IA, cette marge peut marquer des années supplémentaires de durée de vie utile.

Sur les serveurs, SK hynix a enseigné RDIMM et CSODIMM sur le nœud 1c8 (processus 10 nm de 6ème génération), avec 3DS RDIMM, Tall MRDIMM et SOCAMM. La lecture stratégique est limpide : il ne suffit pas d’avoir la meilleure puce « star » si l’on ne couvre pas les variantes et les hauteurs requises par les châssis modernes, les plaques denses et les passages d’air agressifs dans les centres de données. La polyvalence se vend autant que le gigahertz.

Stockage : PCIe 5 pour aujourd’hui et des chiffres qui il y a un an semblaient être une faute de frappe

Le troisième acte était pour le stockage. Dans le centre de données eSSD, SK hynix a déployé la famille : PEB110, PS1010, PS1012 et PS1101. Le PS1012 (PCIe 5, 61 To, QLC) a nécessité de nombreux flashs pour une raison évidente : il double la bande passante de la génération PCIe 4 et pousse la capacité à des niveaux où les lacs de données IA cessent de se battre pour les gigaoctets et commencent à penser à la latence et au coût par téraoctet.

Et puis il y a le PS1101: 245 To. Si vous pouvez consolider les ensembles de données et le stockage sur moins de châssis, vous économisez de l’énergie, de la mise en réseau et de la complexité. C’est le genre de chiffre qui change les conversations d’achat.

Pour le edge, le cSSD PCB01 convient à la chirurgie : 14 Go/s en lecture, 12 Go/s en écriture. C’est le profil qui nécessite un ordinateur portable « AI-first », une station compacte ou un véhicule connecté qui fait des inférences locales et télécharge uniquement ce qui est essentiel vers le cloud. Le dogme n’est plus « tout au centre de données », mais « ce qui est juste, à sa place ».

Geeknetic SK hynix apporte une mémoire HBM4 de 2 To/s, des SSD de 245 To et sa vision tout-en-un pour l'ère de l'IA au Dell Technologies Forum 2025 2

Plus que des produits : un récit de partenaire, pas seulement un fournisseur

L’exposé de Jungwon Park et Gyoyoung Lee sur les « Aspects clés du stockage dans l’IA » a souligné ce qui sous-tend tout cela : il ne s’agit pas de vendre une pièce, il s’agit d’installer un système. Une mémoire rapide sans canal de stockage suffisant crée des entonnoirs ; Un stockage brutal sans DRAM adéquate force la pagination et pénalise le GPU ; et ainsi de suite en boucle. La valeur différentielle réside dans la mise au point de l’ensemble. Que le déploiement ait eu lieu dans un forum Dell n’est pas une coïncidence : conception de référence, validations partagées, feuilles de route coordonnées. Cela fidélise plus que n’importe quel communiqué de presse.

Qu’est-ce que cela signifie pour la prochaine vague d’IA ?

  • Entraînement: HBM4 à 2 To/s et SSD PCIe 5 de 61 à 245 To réduisent les temps d’ingestion et atténuent les contraintes entre le GPU et le stockage.
  • Inférence: La DRAM rapide et les SSD compacts rapprochent les données du point de décision. Moins de déplacements vers le cloud, une réponse plus immédiate.
  • Coût total de possession: La densité et la performance par watt déterminent l’équation du coût total. Si vous faites la même chose avec moins de racks et moins de kWh, vous avez déjà gagné avant de parler de FLOPS.

Le Dell Technologies Forum de Séoul a laissé SK hynix en grand et surtout bien cadré : HBM4 comme tracteur technologique, DRAM pour chaque scénario et SSD qui placent la barre plus haut en termes de capacité et de bande passante. Ce n’est pas une posture; C’est une ambition industrielle. Il y a encore du chemin à parcourir (il y en a toujours lorsque la demande en IA augmente plus vite que n’importe quelle feuille de route), mais le message est sans équivoque : ils veulent être le fournisseur qui non seulement fournit des puces, mais qui active également les systèmes.