SK Hynix brise la barrière de la densité au CES 2026 avec des mémoires HBM4 à 16 couches et 48 Go

La demande de mémoire pour alimenter les accélérateurs d’intelligence artificielle continue de croître, et SK Hynix a répondu au CES 2026 en présentant sa solution la plus ambitieuse à ce jour. La société a dévoilé ses nouveaux modules de mémoire à large bande passante HBM4 16 hauteursune architecture qui parvient à packager une capacité de 48 Go dans une seule pile.

Il s’agit d’un progrès significatif par rapport à ce que nous avons vu précédemment dans l’industrie, dépassant les modules à 12 couches de 36 Go qui établissaient jusqu’à présent la norme pour la prochaine génération. Ces nouveaux composants sont spécialement conçus pour répondre à la faim de mémoire des systèmes de calcul haute performance ou HPC et des accélérateurs d’IA, où la capacité de stockage local est aussi critique que la vitesse de traitement.

Il est intéressant de noter que l’annonce s’est montrée prudente quant aux chiffres de performance spécifiques. SK Hynix n’a pas fourni de données officielles sur la bande passante finale ou les vitesses de transfert, un silence qui pourrait être interprété comme une stratégie concurrentielle alors que des concurrents tels que Samsung et Micron Ils finalisent leurs propres propositions HBM4 pour des fournisseurs tels qu’AMD ou NVIDIA. Malgré le manque de chiffres, les performances devraient largement dépasser les 11,7 Gbit/s des versions à 12 couches.

Le concept cHBM apporte de la logique à la mémoire

Au-delà de la capacité brute, l’innovation technique la plus pertinente présentée par le constructeur est le concept de cHBM. Traditionnellement, la logique de contrôle de la mémoire et l’interface physique (PHY) occupent un espace précieux et consomment de l’énergie sur la puce principale du GPU ou de l’ASIC. La proposition de SK Hynix consiste à intégrer une « puce de base » personnalisée au bas de la pile mémoire DRAM.

Cette architecture permet aux fonctions logiques, telles que les contrôleurs de mémoire ou les PHY die-to-die, d’être déplacées hors du processeur principal et placées directement dans la mémoire. Cela libère de l’espace sur le GPU pour ajouter plus de logique informatique, maximisant ainsi les performances globales du système. Selon l’entreprise, cette approche offre une grande flexibilité, permettant aux clients de choisir les fonctions à intégrer et même d’intégrer la logique de traitement dans le package de mémoire lui-même.