SK Hynix présente les specifications de sa mémoire HBM3, jusqu'à 665 Go/s de bande passante

Nathan Le Gohlisse
Spécialiste Hardware
14 juin 2021 à 17h20
8
ici un GMU AMD Instinct MI100, pour illustration // © AMD
ici un GMU AMD Instinct MI100, pour illustration // © AMD

Le coréen SK Hynix a annoncé sa nouvelle génération de mémoire vive HBM3. Étudiés pour délivrer des vitesses de transferts toujours plus élevées, tout en profitant d'une efficacité énergétique sérieusement peaufinée, ces modules serviront notamment de mémoire vidéo pour de futures cartes graphiques hautes performances.

Prendre la relève de l’actuelle mémoire HBM2E en améliorant à peu près tout. C'est la raison de vivre de la mémoire HBM3 que SK Hynix a présenté. 

Speeeeeed and power

Cette nouvelle génération de modules DRAM promet des vitesses de transfert ébouriffantes, pouvant monter à 5,2 Gbps en entrée et sortie. Soit une hausse de 44 % par rapport à la mémoire HBM2E. Même dynamique pour la bande passante qui pourra monter à un maximum de 665 Go/s de données transférées contre 460 Go/s actuellement. Là aussi nous sommes face à 44 % d'amélioration note WCCFTech, qui nous propose une mise à l'échelle intéressante.

En faisant le calcul, un seul module HBM3 devrait pouvoir offrir plus de bande passante que celle proposée au total par les Radeon RX 6900XT et GeForce RTX 3070 Ti réunies. Quatre modules de cette nouvelle DRAM suffiront aussi à développer 2 To/s de bande passante tandis que les six modules de VRAM de la NVIDIA A100 (vouée aux supercalculateurs) se limitent à 3 To/s.

Lancement prévu l'année prochaine

Mais la vitesse ne fait pas tout et SK Hynx le sait. La marque promet donc une amélioration des technologies de dissipation introduites avec sa mémoire HBM2E. Résultat : 14 degrés en moins sur les modules et une dissipation de chaleur améliorée de 36%, promet le groupe sud-coréen.

La capacité maximale de ces nouveaux modules de DRAM ne devrait, par contre, pas évoluer beaucoup par rapport à la mémoire HBM2E — en tout cas pour la première génération attendue l'année prochaine. Dans un premier temps, on y retrouvera donc des dies de 16 Gb pour une capacité de 16 Go. Il est en revanche possible que la densité des modules augmente lorsque les spécifications de la HBM3 seront finalisées par le JEDEC (Joint Electron Device Engineering Council). Il n'est donc pas exclu que cette capacité soit revue à la hausse à moyen terme.

Quant aux premières cartes graphiques éligibles à cette nouvelle mémoire DRAM HBM3 ? Il faut aller chercher du côté des futurs GPU pour serveurs et supercalculateurs de chez AMD, NVIDIA et Intel. WCCFTech cite notamment les designs AMD Instinct, NVIDIA Hopper et Intel Xe-HPC, qui seront parmi les premiers servis.

Source : WCCFTech

Nathan Le Gohlisse

Spécialiste Hardware

Spécialiste Hardware

Passionné de nouvelles technos, d'Histoire et de vieux Rock depuis tout jeune, je suis un PCiste ayant sombré corps et biens dans les délices de macOS. J'aime causer Tech et informatique sur le web, i...

Lire d'autres articles

Passionné de nouvelles technos, d'Histoire et de vieux Rock depuis tout jeune, je suis un PCiste ayant sombré corps et biens dans les délices de macOS. J'aime causer Tech et informatique sur le web, ici et ailleurs. N’hésitez pas à me retrouver sur Twitter !

Lire d'autres articles
Vous êtes un utilisateur de Google Actualités ou de WhatsApp ? Suivez-nous pour ne rien rater de l'actu tech !
google-news

A découvrir en vidéo

Rejoignez la communauté Clubic S'inscrire

Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.

S'inscrire

Commentaires (8)

supernaz
«&nbsp;Quatre modules de cette nouvelle DRAM suffiront aussi à développer 2 To/s de bande passante tandis que les six modules de VRAM de la NVIDIA A100 (vouée aux supercalculateurs) se limitent à 3 To/s.&nbsp;»<br /> Si 4 modules de l’un font 2 To/s et 6 modules de l’autre font 3 To/s, chaque module a la même bande passante en fait. J’ai pas compris la logique de votre résonnement.
vbond007
J’allais poser la même question…
Voigt-Kampf
La bande passante du diable.
olivierEric
Ben simplement que les futurs carte graphique gaming auront leurs mémoires aussi rapide que des serveurs ou supercalculateur.
newseven
Vu la complexité de l’interface de la HBM2 et les résultats des performances avec la série Radeon™ RX Vega " radeon 7 " qui a été le un grand flop y compris Nvidia avec la TITAN V.<br /> Je ne vois pas comment, il pourra attirer l’engouement des constructeurs AMD , Nvidia pour utiliser la mémoire HBM3.
eykxas
Ben c’est pourtant pas compliqué. 6 modules de la Nvidia A100 font 3 To/s, alors que 6 modules de cette nouvelle DRAM donnerait quasi 4 To/s (3.990 exactement). Donc les nouveaux modules sont plus performant. CQFD
FlavienS
Et bien en fait, 3To/s divisé par 6 anciens modules, ça fait 0.5To/s par module.<br /> Si on prend les nouveaux : 2To/s divisé par 4 modules, ça fait 0.5To/s par module.<br /> On retombe bien sur la même vitesse.
Nmut
Les Vega restent toujours les championnes des applis OpenCL. Bon ce n’est pas que pour la HBM car l’archi et la puissance brute des Vega est aussi supérieure à celle des GTX/RTX équivalentes, mais cela y participe. A titre indicatif, j’utilise toujours ma Vega56 qui est 1.5x plus rapide que la 1080 qu’elle a remplacé, et j’ai toujours des perfs correctes face aux dernières RTX (pour une petite fraction du prix ).
eykxas
sauf que les nouveaux modules ne font pas 0.5 mais 0.6. ce qui arrondit à l’unité pour 4 modules donne 2To
supernaz
What? Comment 6 modules de la nouvelles DRAM peuvent faire 4 To/s quand dans la news c’est écrit que ces 4 mêmes modules ensemble font 2 To/s.
eykxas
665 Go/s multiplié par 6… je te laisserai faire le calcul.
supernaz
Je crois que t’as de sérieuses lacunes en mathématiques
Voir tous les messages sur le forum
Haut de page

Sur le même sujet