SK hynix pousse l’AI-NAND vers 2027 avec jusqu’à 100 millions d’IOPS et des tests avec NVIDIA pour réduire les goulots d’étranglement de l’IA

SK hynix souhaite que la prochaine grande révolution de l’IA vienne non seulement des GPU, mais également du stockage. Alors que tout le monde regarde les GPU NVIDIA et l’énorme consommation des datacenters, l’entreprise coréenne cible un autre point faible du système : le stockage.

Des SSD conçus pour l’IA, pas seulement plus rapides

La nouvelle stratégie s’articule autour d’un famille de produits que SK hynix appelle AI-NAND. L’idée est d’aller au-delà du « nouveau SSD légèrement plus rapide » typique et de créer des mémoires flash spécifiques aux modèles d’accès générés par les modèles d’IA, notamment lors de l’inférence.

Le premier grand pilier s’appelle AI-N P. Il s’agit d’une architecture SSD ultra performante dont l’objectif n’est pas tant de vanter des gigaoctets par seconde mais plutôt de vanter des opérations d’entrée et de sortie par seconde, les fameux IOPS. Pour les charges de travail qui lisent et écrivent constamment de petits blocs de données, c’est ce qui fait vraiment la différence.

Les chiffres que gère l’entreprise sont agressifs. Les premiers prélèvements, prévus pour fin 2026, indiquent environ 25 millions d’IOPS sur PCIe Gen 6. La version de production qui arriverait fin 2027 veut évoluer jusqu’à 100 millions d’IOPS. Aujourd’hui, un SSD d’entreprise haut de gamme se situe généralement entre 2 et 3 millions. Sur le papier, SK hynix parle de performances décuplées dans la première génération et trente fois dans la seconde.

NVIDIA en tant que partenaire de test

Pour que tout cela ait un sens, il faut le tester dans des environnements réels.. C’est pourquoi SK hynix travaille avec NVIDIA sur des preuves de concept déjà en cours. C’est logique : peu importe la puissance d’un GPU s’il passe la moitié de sa vie à attendre que les données arrivent du stockage.

L’architecture AI-N P veut s’attaquer précisément à ce goulot d’étranglement, en rapprochant le stockage du GPU, en réduisant les latences et en garantissant que les données circulent à un débit constant. C’est, en quelque sorte, le complément naturel à la surenchère que l’on a pu constater ces dernières années dans le domaine des puces informatiques : si les GPU ont fait un bond en avant, la mémoire flash ne peut pas être en reste.

Trois familles d’AI-NAND pour différents scénarios

Le plan de SK hynix ne se limite pas à l’AI-N P. L’entreprise a divisé sa feuille de route en trois grandes branches de produits, chacune ayant un rôle différent au sein de la même stratégie.

AI-N P est la branche ultra hautes performances, conçue pour les centres de données qui doivent exploiter chaque watt investi dans le GPU. À côté de lui se trouve AI-NB, mieux connu sous le nom de HBF, de High Bandwidth Flash, développé en collaboration avec Sandisk. La priorité ici est d’offrir une bande passante très élevée et soutenue, ce qui est essentiel lorsque l’on travaille avec d’énormes ensembles de données qui doivent être parcourus encore et encore. La première spécification alpha devrait arriver début 2026 et les unités d’évaluation en 2027.

La troisième étape est AI-N D, destinée aux SSD de haute capacité et à faible coût. Toutes les applications d’IA n’ont pas besoin des performances les plus élevées possibles ; Ce que beaucoup demandent, c’est de pouvoir stocker des quantités gigantesques de données de formation ou d’historique sans faire exploser le budget. Cette ligne tente de combler justement cette lacune.

Ensemble, ces trois familles s’attaquent à ce que SK hynix considère comme les deux fronts majeurs du marché : d’un côté, le déploiements massifs dans les datacentersobsédés par la performance ; de l’autre, IA sur l’appareiloù l’efficacité énergétique et le coût pèsent davantage, mais où une NAND mieux adaptée aux modèles d’inférence est également appréciée.

Ce que 2027 pourrait signifier si le plan se réalise

Si l’entreprise parvient à se rapprocher de ses objectifs, 2027 pourrait être une année similaire à celle au cours de laquelle les SSD ont commencé à véritablement remplacer les disques durs. Le bond ne porterait pas tant sur la capacité brute que sur le vitesse et régularité avec lesquelles les données atteignent les GPU.

Un SSD capable de déplacer 100 millions d’IOPS en PCIe Gen 6 n’accélère pas seulement un modèle spécifique ; Cela permet également de repenser l’architecture d’un data center, de réduire le nombre de nœuds nécessaires et de réduire une partie de la consommation car le matériel passe moins de temps inactif.

Pour l’IA sur l’appareil, une NAND optimisée peut aider les assistants, les modèles de vision ou les traductions à mieux fonctionner sans trop dépendre du cloud. Un stockage plus intelligent signifie qu’une partie du travail aujourd’hui délégué au serveur peut rester sur l’appareil lui-même, avec moins de latence et plus de confidentialité.

Il reste beaucoup à voir et, en matière de technologie, les calendriers doivent toujours être pris avec des pincettes. Mais le message sous-jacent est clair : la prochaine génération d’IA ne se décidera pas uniquement dans des salles remplies de GPU, mais dans la manière dont les données qui les alimentent se déplacent. SK hynix veut cesser d’être un acteur invisible dans cette histoire et devenir un élément central de l’infrastructure qui rendra possible la prochaine vague de modèles d’intelligence artificielle.