HBM3 Gen 2 : la nouvelle mémoire Micron est la plus rapide au monde ?

Nerces
Spécialiste Hardware et Gaming
28 juillet 2023 à 09h10
2
© Tom's Hardware
© Tom's Hardware

Principalement destinées aux accélérateurs AI, les nouvelles puces de mémoire Micron HBM3 Gen2 ont un cran d'avance.

Connue – comme son nom l'indique – pour sa bande passante très élevée, la mémoire HBM (High Bandwith Memory) a d'emblée été conçue pour une rivale à moins hautes fréquences que la GDDR.

Efficacité 2,5x supérieure à l'HBM2E

Une rivale qui progresse, génération après génération, pour aujourd'hui se prévaloir d'une « bande passante agrégée » de 1,2 To/s à en croire l'annonce tout juste faite par une spécialiste du secteur, Micron.

© Tom's Hardware
© Tom's Hardware

La société américaine vient effectivement de préciser que sa HBM3 Gen2 est en cours de livraison à ses clients. Micron souligne que sa mémoire est « la plus rapide du monde » avec un empilement, lui aussi record, de 8 piles pour la capacité de 24 Go. La notion d'empilement est à la base de la technologie HBM et Micron évoque déjà du 12 piles (36 Go) « pour bientôt ».

Cerise sur le gâteau, Micron précise que l'HBM3 Gen2 est sa mémoire la plus efficace marquant un rendement par watt environ 2,5 fois supérieur à ce que pouvait atteindre sa génération précédente, l'HBM2E.

© Tom's Hardware
© Tom's Hardware

Vers l' « HBMNext »… en 2026

Micron n'est évidemment pas peu fière de présenter – la première – son HBM3 Gen2 qui lui permet de couper l'herbe sous le pied de ses principaux rivaux, les Sud-Coréens SK Hynix et Samsung.

© Tom's Hardware
© Tom's Hardware

Très concurrentiel, alors que la course aux armements a repris de plus belle avec le développement des accélérateurs AI particulièrement gourmands en mémoire, ce marché fera évidemment bon usage de cette bande passante supplémentaire offerte par l'HBM3 Gen2 laquelle remplace donc l'HBM2E chez Micron. Pourquoi pas d'HBM3 Gen1 d'abord ? Les experts marketing de la société ont estimé que Gen 2 était « plus indiqué pour représenter le bond considérable en performances, capacité et efficacité énergétique ».

Si les performances et la capacité progressent considérablement, Micron a été en mesure de garder des dimensions identiques (11 x 11 mm) pour ses puces, ce qui traduit « un accroissement dramatique de la densité des composants » comme la société se plait à présenter la chose. De plus, son HBM3 Gen2 est compatible broche à broche avec les composants de HBM3 actuels, ce qui simplifie la montée en gamme. Une montée en gamme qui offre un gain de 50 % en bande passante par rapport aux mémoires actuelles.

© Tom's Hardware
© Tom's Hardware

Micron n'est que la seconde société à déployer des modules de HBM3 de seconde génération, après SK Hynix. Cependant, compte tenu des chiffres avancés (1 To/s de bande passante), le produit Micron est supérieur de plus ou moins 20 %. L'Américaine ne compte d'ailleurs pas en rester là et travaille à la prochaine génération de mémoire HBM pour l'heure baptisée « HBMNext ». Elle devrait arriver courant 2026, offrir des capacités allant jusqu'à 64 Go et une bande passante supérieure à 2 To/s.

Source : Tom's Hardware

Nerces

Spécialiste Hardware et Gaming

Spécialiste Hardware et Gaming

Tombé dans le jeu vidéo à une époque où il fallait une belle imagination pour voir ici un match de foot, là un combat de tanks dans ces quelques barres représentées à l'écran, j'ai suivi toutes les év...

Lire d'autres articles

Tombé dans le jeu vidéo à une époque où il fallait une belle imagination pour voir ici un match de foot, là un combat de tanks dans ces quelques barres représentées à l'écran, j'ai suivi toutes les évolutions depuis quarante ans. Fidèle du PC, mais adepte de tous les genres, je n'ai du mal qu'avec les JRPG. Sinon, de la stratégie tour par tour la plus aride au FPS le plus spectaculaire en passant par les simulations sportives ou les jeux musicaux, je me fais à tout... avec une préférence pour la gestion et les jeux combinant plusieurs styles. Mon panthéon du jeu vidéo se composerait de trois séries : Elite, Civilization et Max Payne.

Lire d'autres articles
Vous êtes un utilisateur de Google Actualités ou de WhatsApp ? Suivez-nous pour ne rien rater de l'actu tech !
google-news

A découvrir en vidéo

Rejoignez la communauté Clubic S'inscrire

Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.

S'inscrire

Commentaires (2)

wackyseb
On ferait de toutes petites carte graphique avec cette mémoire.<br /> Besoin d’une seule puce de 24Gb et une bande passante x10 par rapport à la GDDR7.<br /> Meilleure consommation, plus petite carte, système de refroidissement beaucoup plus petit.<br /> Bah alors, non ? Trop cher ? c’est quoi l’excuse cette fois ???
bennukem
Faut quand même un GPU qui puisse envoyer autant de data et les traîter. Puis j’imagine que la disponibilité n’atteint pas celle des autres types
wackyseb
Oui mais imagine le biniou !<br /> Les temps de chargement entre SSD Nvme et mémoire GPU des textures avec Direct Storage. Pas forcément besoin d’un GPU de foufou. Juste ça.
Nmut
Les difficultés de refroidissement sont énormes =&gt; les radiateurs coutent chers. Pas sûr que l’équation soit en faveur de la HBM.<br /> Les seules cartes grand public qui ont utilisé la HBM, ce sont les Vega, certes extrêmement performantes en calcul mais moyennes en jeu (et pas plus petites que les équivalent GDDR) =&gt; peu d’intérêt pour ce marché et couteuses pour AMD =&gt; on en a plus vu depuis!
vargace
Comme dit mon vdd, il y a déjà eu les Vega d’amd en HBM pour le marché mainstream alors que nvidia l’utilise seulement pour ses cartes pro. Utiliser de la HBM c’est plus compliqué que d’utiliser de la GDDR, ça coûte plus cher (merci l’interposer) pour au final pas plus de perf dans les jeux. Car un gpu c’est un ensemble, pas juste une bande passante.
wackyseb
Ne parlons pas du passé.<br /> Parlons avenir, demain, et même après demain.<br /> L’intérêt est celui qu’on lui donne. Hier il n’y avait pas d’IA. Aujourd’hui c’est autre chose.<br /> De la mémoire hyper rapide avec 1 seule puce ultra performante. Des possibilités en IA dans plusieurs domaines comme la reconstruction vidéo, la mise à l’échelle, le filtrage et d’autres fonctions à créer.<br /> Réfléchissons avenir et non passé.<br /> Sinon la voiture électrique a été un échec par le passé. Et bien d’autres échecs dans tous les domaines<br /> vargace:<br /> Utiliser de la HBM c’est plus compliqué que d’utiliser de la GDDR, ça coûte plus cher<br /> Euh oui vu le prix des cartes graphiques, on n’est plus à ça près !!!<br /> Je suis d’accord, il n’y a pas que les jeux dans la vie d’une carte graphique.<br /> Perso je fais du rendu 3D, de la conversion vidéo, du mastering audio/vidéo et d’autres petites choses.<br /> L’accélération CUDA en autre est un vrai plus.<br /> Le goulot est souvent lié à la mémoire.<br /> Et payer pour une carte pro, OK au boulot pourquoi pas mais à la maison, non merci.<br /> Comme déjà dis, imagine une vitesse de chargement du SSD Nvme directement dans la mémoire HBM3.2 avec DirectStorage.<br /> Un truc de fou pour tes textures de jeu.<br /> Une nouvelle façon de créer les jeux avec une lecture quasi instantanée de textures en très haute résolution.
Nmut
wackyseb:<br /> L’accélération CUDA en autre est un vrai plus.<br /> Le goulot est souvent lié à la mémoire.<br /> Pour une utilisation pro, ton problème est dans ces 2 phrases! <br /> En fait la gestion mémoire dans cartes NVidia est assez peu performante et lourdingue à gérer en Cuda.<br /> C’est nettement plus simple et performant en OpenCL sur AMD. Tu t’en aperçois justement avec une comparaison Vega / 5700 ou l’avantage de la mémoire rapide n’est pas énorme, même en utilisation pro, pour un cout très important.<br /> Mais au final oui, il y a de la HBM sur certaines cartes pro pour des usages très spécifiques, là ou c’est réellement exploité et ou le prix n’a pas vraiment d’importance.
eaglestorm
je capte pas un truc, si elle est rapide, pourquoi elle marche pas bien pour les jeux ?
Caramel34
Je me pose la même question
wackyseb
Nmut:<br /> C’est nettement plus simple et performant en OpenCL sur AMD<br /> Ah oui mais AMD en carte graphique, c’est et ça reste non pour moi.<br /> Autant le processeur j’alterne suivant les générations et la performance brute entre les 2 marques, autant pour la carte graphique je reste confiant et addict aux technologies exclusives de Nvidia.<br /> Depuis l’époque d’ATI et maintenant AMD, je n’ai jamais été convaincu par ces cartes.<br /> Mes amis qui avaient des ATI sapphire avaient tellement de soucis avec les drivers et les derniers qui ont osé l’AMD l’ont regretté.<br /> Chacun ses goûts et ses besoins mais de mon côté c’est pas négociable, Nvidia Forever.<br /> Je ne crois même pas qu’AMD a de quoi se battre face à du RTX 4080 et au dessus.<br /> Déjà est ce qu’ils ont de quoi battre une 4070Ti ?<br /> Le Ray-Tracing ?, un équivalent au DLSS3 ?<br /> Alors oui c’est pas des technologies ouvertes mais bon c’est leur business aussi.
Blackalf
wackyseb:<br /> Mes amis qui avaient des ATI sapphire avaient tellement de soucis avec les drivers et les derniers qui ont osé l’AMD l’ont regretté.<br /> Et moi je n’en ai jamais eu aucun, pas même avec une ATI Rage 128 dont les drivers étaient soit disant très mauvais, comme quoi…
wackyseb
C’était l’occasion de rigoler de ceux qui avaient une ATI à l’époque. Entre Glitch, bugs, mauvaises couleurs, Freeze.<br /> Une catastrophe.<br /> Juste la partie vidéo qui était au TOP par contre. le décodage Mpeg était plus performant et les couleurs plus vive quand on faisait de l’acquisition vidéo analogique.<br /> Après c’est comme tout, certains aiment et d’autres non.<br /> Depuis le temps, je lis toujours des situations de bugs dans les jeux, des performances plus basses jusqu’à un hypothétique driver salvateur.<br /> Leur driver est maintenant au niveau mais çà a longtemps été un enfer. Découpé en plusieurs morceaux.<br /> Chez AMD, existe t’il un équivalent à Geforce expérience pour la config automatique des meilleurs réglages pour chaque jeux ?<br /> AMD est-il partenaire de studio de développement et est-ce qu’il y a un plus lorsque c’est le cas face à Nvidia. Non pas vraiment.<br /> Voilà voilà ce que je pouvais en dire.<br /> Loin de moi l’idée d’être ce que certains nommeraient FANBOY. Si un jour ils ont la technologie pour faire mieux dans la durée, pourquoi pas. Je ne suis pas fermé.<br /> Preuve en est, je suis sous Ryzen 9 3900x pour l’instant. J’ai bien eu des Athlon 64 à l’époque.
Blackalf
Si tu le dis…
Nmut
Mon but n’est absolument pas de te convaincre d’une supériorité quelconque d’AMD, c’est juste une remarque d’un utilisateur d’une techno utilisée seulement par AMD pour le grand public, sans avantage marqué. Je n’ai vu aucun avantage direct à l’utilisation de la HBM, même si sur le papier ça semble mieux. Je n’ai pas de carte pro (pas les moyens ni le besoin ), mais j’ai plusieurs cartes AMD (380, Vega56, 6800) et NVidia (1060, 1080 et 3060) pour tester notre appli de simulation numérique et donc j’ai des points de comparaison directs avec la HBM de la Vega.<br /> Et pour info, les problèmes de drivers ne sont pas une exclusivité AMD, NVidia se traine une bonne quantité de versions vérolées aussi, sans compter leur manie de planquer des trucs pour faire bugger les cartes AMD, j’ai des problèmes régulièrement au passage NVidia → AMD qui ne se règlent qu’avec les versions les plus récentes de DDU alors que dans l’autre sens, je n’ai jamais eu de problèmes.<br /> Et pour mon utilisation perso, j’aime les AMD pour leur stabilité et leurs drivers/outils bien plus simples à utiliser (y compris la prog et le support OpenCL), leur rapport perf/prix, j’ai juste eu quelques problèmes avec les taux de rafraichissement au début de la 6800 (tri écrans: 244hz, 90hz et 60hz). J’aime NVidia pour leur réactivité pour corriger les problèmes (crashs drivers sur la 1080 au début, corruption mémoire avec certaines versions de drivers), pour leur performances AI, pour le DLSS (à mon avis, le meilleurs truc depuis le T&amp;L, et meilleur que le FSR pour le moment). Le RT par contre, je n’accroche pas, je n’aime pas le rendu.
wackyseb
Nmut:<br /> Le RT par contre, je n’accroche pas, je n’aime pas le rendu.<br /> C’est le début. C’est vrai que pour l’instant on abuse des effets de reflet. Genre les routes, on dirait qu’elles sont gelées tellement çà réfléchie la lumière.<br /> Alors qu’un simple miroir ils ne le mettent généralement pas !!!<br /> Dans certains jeux c’est un plus, dans beaucoup çà ne sert à rien du tout.<br /> Après il y a du teasing qui fait de gros FLOP comme avec Atomic Heart qui devait être une vitrine du RayTracing et finalement le jeu est nul et ils ont même retiré le raytracing pour le lancement du jeu. Absurde.<br /> OpenCL je n’utilise pas ou alors je ne sais pas que çà l’utilise. Je sais que certains de mes programmes sont codé pour utiliser CUDA. Et çà marche très très bien quand c’est actif.<br /> Surtout des rendus Vulkan+CUDA pour de l’upscaling AI de vidéos
Nmut
wackyseb:<br /> OpenCL je n’utilise pas ou alors je ne sais pas que çà l’utilise. Je sais que certains de mes programmes sont codé pour utiliser CUDA.<br /> OpenCL, c’est pour des calculs génériques, comme Cuda mais « universel » y compris sur CPU, sauf que les spécificités de chaque architecture sont à prendre en compte et c’est complexe si on veut que ça tourne bien sur CPU et chaque marque de GPU! Donc c’est assez peu utilisé. Dans mon cas, on doit tourner sur n’importe quelle machine, mais il faut utiliser au max le hardware (les calculs peuvent prendre plus d’une semaine sur un PC bureautique avec un Intel i5 + Intel HD, ca diminue à 1 journée sur une bécane 8/16 coeurs + 1080 et 6h sur un 12/24 coeurs + 64Go + RX6800 mais ça reste long (trop pour les utilisateurs! ), en CPU pur tu multiplies par 10 en moyenne.<br /> Cuda est très bien, on a fait quelques tests et NVidia nous a même dit qu’ils coderaient en partie pour nous, sauf que l’on est quand même obligé d’avoir de l’OpenCL…
wackyseb
Ouais c’est dommage alors de devoir faire avec OpenCL si c’est moins rapide que CUDA.<br /> De ce que je sais, CUDA est toujours le plus rapide, OpenCL est derrière en AMD mais OpenCL est même dernier sur Nvidia par rapport au rendu Software sur carte graphique.<br /> Mais oui si le matériel est exotique avec du Intel, AMD et Nvidia en GPU, tu n’as effectivement pas trop le choix que de t’orienter vers OpenCL.<br /> Sauf à créer une reconnaissance GPU et utiliser le meilleur rendu suivant le fabricant de GPU. Comme Première, After effect en autre.<br /> Ou DaVinci Recode.<br /> Il y a pleins de logiciels finalement qui intègrent plusieurs type de rendu.
Blackalf
wackyseb:<br /> Après il y a du teasing qui fait de gros FLOP comme avec Atomic Heart qui devait être une vitrine du RayTracing et finalement le jeu est nul et ils ont même retiré le raytracing pour le lancement du jeu. Absurde.<br /> Donc tu ne juges un jeu - qui en passant est plutôt apprécié, selon la plupart des tests - qu’en fonction du RT.
wackyseb
Euh non pas en fonction du RT.<br /> Les démos donnaient envie.<br /> J’ai testé la démo (pour une fois qu’il y a une démo c’est plutôt cool d’ailleurs - il faut le souligner).<br /> Et j’avoue que j’ai trouvé ça assez mauvais.<br /> La presse l’a qualifiée de mauvais BioShock. Ce n’est pas de moi.<br /> Bon après les jeux de ce genre c’est du vu, revu et archi vu. Et les nouveaux concept de cherche, ramasse pleins de trucs et on verra après, je n’aime pas .<br /> Je préfère juste ramasser des munitions puis une nouvelle arme. Maxi 7 à 9 armes différentes. Zéro personnalisation (y’a rien de pire que de perdre son temps à changer la couleur, la forme etc… dans un jeu et je ne parle même pas des « améliorations » pfff )<br /> Et avancer dans le jeu avec l’histoire.
Nmut
wackyseb:<br /> Ouais c’est dommage alors de devoir faire avec OpenCL si c’est moins rapide que CUDA.<br /> Cuda est effectivement un poil plus rapide, ça se joue à quelques % près pour du coup est assez proche des perfs AMD, mais comme on est une petite équipe (moins de 10 personnes) sur un soft d’environ 1 million de lignes de code qui évolue beaucoup, on ne peut pas se permettre de se disperser et que les machines cibles sont multiples…<br /> wackyseb:<br /> le matériel est exotique<br /> Pas exotique, mais hétéroclite! Les utilisateurs ont surtout des machines bureautique de base des i5 7600 ou 8600, mais il y a quelques utilisateurs avec des machines un peu plus performantes.<br /> wackyseb:<br /> Sauf à créer une reconnaissance GPU<br /> On le fait quand même, on a quelques optimisations propres à NVidia à cause des limitations mémoire, et des Intel HD pour moins s’appuyer sur le GPU Intel HD (on pompe alors trop sur la bande passante mémoire et c’est contre productif).<br /> wackyseb:<br /> Il y a pleins de logiciels finalement qui intègrent plusieurs type de rendu.<br /> Question de moyens! Et je suppose d’aide de NVidia et/ou AMD…
Voir tous les messages sur le forum
Haut de page

Sur le même sujet