SK hynix entre dans le GDDR7 avec des puces de 48 Go/s, 3 Go par module et jusqu’à 3 To/s de bande passante dans les futurs GPU et IA

SK hynix souhaite que le goulot d’étranglement ne soit plus la mémoire dans la prochaine génération d’accélérateurs graphiques et d’IA. Et la lettre qu’il va montrer dans le ISSCC 2026 va droit dans cette direction : un nouveau GDDR7 de 24 Go capable de déplacer des données à 48 Go/s par brochebien au-dessus de ce que l’industrie tenait pour acquis il y a à peine quelques mois.

Une GDDR7 qui dépasse les attentes

Jusqu’à présent, lorsqu’on parlait de GDDR7, ils utilisaient chiffres autour de 32-37 Go/s. SK hynix a décidé de sauter cette étape et de présenter directement une puce qui vise 48 Go/ss’appuyant sur une conception symétrique à double canal et des interfaces internes révisées pour compresser chaque ligne de données.

Traduit en quelque chose de plus tangible– Avec les puces actuelles de 28 Go/s, chaque package offre environ 112 Go/s de bande passante. Avec ce nouveau GDDR7, ce chiffre s’élève à 192 Go/s par puce, soit une amélioration de plus de 70 % sans avoir besoin de multiplier le nombre de modules sur la carte.

La densité a aussi un truc. Chaque package intègre 24 Go de capacité, soit 3 Go de VRAM effective. Sur cette brique de base, vous pouvez construire des configurations assez flexibles :

  • 8 puces > 24 Go de mémoire
  • 12 puces > 36 Go
  • 16 puces > 48 Go

Pour un GPU avec un bus 256 bits, on parle d’environ 1,5 To/s de bande passante. Si quelqu’un décide d’utiliser un bus 512 bits, le chiffre atteint environ 3 To/s. Ce sont des chiffres que nous associions il n’y a pas si longtemps uniquement aux solutions HBM dans les accélérateurs très haut de gamme.

Conçu pour l’inférence de l’IA, pas seulement pour les jeux

Le document technique que SK hynix présente à l’ISSCC indique que ce GDDR7 est principalement destiné au matériel d’inférence d’IA de milieu de gamme. C’est-à-dire des cartes et des accélérateurs qui ne sont pas montés sur des superordinateurs de laboratoire, mais sur des serveurs « normaux » qui servent quotidiennement des modèles ou sur des postes de travail avancés.

La logique est claire– L’inférence nécessite de déplacer d’énormes quantités de données à pleine vitesse, mais cela ne vaut pas toujours le prix et la complexité du HBM. Une GDDR7 aussi rapide ouvre la porte à des cartes présentant un équilibre intéressant entre coût, consommation et performances, idéales pour les centres de données qui souhaitent évoluer sans se ruiner.

Cela ne veut pas dire que les GPU de jeu sont laissés de côté. Mais il est habituel que ces premières générations très avancées commencent leur vie commerciale dans les accélérateurs d’IA et les cartes de centres de données, où l’investissement est amorti plus tôt.

Une course à trois : SK hynix, Samsung et Micron

Dans GDDR7, il y a actuellement trois noms clairs : SK hynix, Samsung et Micron. Tous les trois vont dans le même sens (plus de vitesse par broche, plus de bande passante, moins de consommation par bit transféré), mais sur le papier SK hynix a momentanément pris la tête avec ce chiffre de 48 Gb/s.

Il convient également de rappeler que les documents de l’ISSCC sont généralement en avance sur le marché.: Ce qui est présenté lors de la conférence peut prendre un an ou plus pour atteindre le produit final. Il est probable que cette GDDR7 de 24 Go fera ses débuts dans des solutions d’IA très spécifiques avant d’apparaître dans les graphiques grand public.

Geeknetic SK hynix fait irruption dans GDDR7 avec des puces de 48 Go/s, 3 Go par module et jusqu'à 3 To/s de bande passante dans les futurs GPU et AI 2

LPDDR6 : l’autre pièce pour mettre l’IA dans votre poche

SK hynix ne va pas à l’ISSCC uniquement avec de la mémoire pour les GPU. Il montre également son nouveau LPDDR6la DRAM mobile que nous verrons dans les smartphones haut de gamme, les PC ultraportables dotés d’IA et les périphériques qui doivent exécuter des modèles d’inférence localement.

Ici le saut est également notable: LPDDR6 atteint 14,4 Go/sbien au-dessus des 9,6 Go/s de l’actuel LPDDR5. Encore une fois, l’important n’est pas seulement le nombre, mais ce qu’il vous permet de faire : déplacer plus de données en moins de temps, maintenir une bande passante élevée sans augmenter la consommation et activer des fonctions d’IA générative sur l’appareil lui-même sans trop dépendre du cloud.

Si vous combinez ce LPDDR6 sur le mobile avec du GDDR7 ultra-rapide sur le serveur, le tableau devient assez clair: des modèles de plus en plus grands fonctionnant en back-end et des fonctions plus immédiates (résumé de contenu, traitement d’images, assistants personnels) fonctionnant directement sur l’appareil de l’utilisateur.

Un avertissement sur la direction que prendra la prochaine génération

L’annonce de SK hynix n’est pas seulement un chiffre accrocheur en Go/s. C’est un indice assez direct sur la manière dont l’équilibre entre GPU et mémoire va changer. dans la prochaine vague de produits pour les jeux et, surtout, pour l’IA.

Si la bande passante n’est plus le goulot d’étranglement grâce à une mémoire comme cette GDDR7, les concepteurs de GPU pourront jouer avec plus de cœurs, plus de cache ou des architectures plus complexes sans que tout reste bloqué sur le bus. Et, dans le même temps, les fabricants de mobiles et d’ordinateurs portables commencent à disposer d’un LPDDR6 qui permet de parler sérieusement d’IA générative à la périphérie, sans trop dépendre de la connexion.

L’ISSCC 2026 est encore loin d’être une vitrine grand public, mais ce que SK hynix a sous le bras suggère que la prochaine grande bataille de l’IA ne se déroulera pas seulement dans les puces informatiques, mais dans la mémoire qui les alimente.