GTC 2022 : NVIDIA officialise le GPU Hopper H100, gravé en 4 nm

Nerces
Spécialiste Hardware et Gaming
22 mars 2022 à 17h39
20
NVIDIA Hopper H100 © NVIDIA
© NVIDIA

Le GPU H100 de NVIDIA n'aura pas tardé à se dévoiler plus en détails et, surtout, de manière officielle.

Pas plus tard que ce matin, nous évoquions une ultime fuite concernant Hopper , la nouvelle génération de GPU imaginée par NVIDIA pour équiper les centres de données.

L'ouverture de la GTC 2022 et la keynote présentée par Jensen Huang, fondateur et P.-D.G. de NVIDIA, aura été l'occasion de clarifier les choses.

TSMC N4 pour 80 milliards de transistors

Contrairement à ce que les rumeurs annonçaient ce nouveau GPU n'est pas doté de 140 milliards de transistors, en tout cas pas pour cette puce H100 de la génération Hopper. NVIDIA a effectivement indiqué qu'il est question de « seulement » 80 milliards de transistors.

L'Américain a en revanche souligné l'utilisation d'un processus de gravure très avancé puisqu'il est question du N4 de TSMC. Autre grande nouvelle, NVIDIA emploie sur cette génération de la mémoire HBM3 : pas moins de 80 Go pour être tout à fait exact.

NVIDIA Hopper H100 © Videocardz
© Videocardz

Deux versions du H100 ayant été évoquées par NVIDIA, les spécifications varient. Ainsi, le H100 SXM affiche une puissance FP64 de 30 teraFLOPS quand le H100 PCIe doit se « contenter » de 24 teraFLOPS. De fait, le TDP du premier est à 700 W contre 350 W pour le second.

Enfin, histoire de parfaire le tableau, NVIDIA a parlé de l'intégration de plusieurs GPU H100 au sein du système HGX H100 : il intègre huit GPU qui communiquent via des NVLink de quatrième génération pour un maximum de puissance.

Clubic compare de manière indépendante et objective les meilleurs modèles de cartes graphiques. Cliquez pour en savoir plus.
Lire la suite

Source : NVIDIA

Soyez toujours courtois dans vos commentaires.
Respectez le réglement de la communauté.
20
13
Sampro
Non merci
Pernel
C’était pas prévu pour toi de toute façon
gothax
4nm + savoir faire NVIDIA = CG qui vont dépoter
pecore
Ça devrait envoyer du lourd en effet mais à quoi et à qui de tels GPU se destinent ils ? Pour GeForce Now ?
Pernel
C’est fort possible, pour faire une offre « 4080 » pour remplacer le A10G l’année prochaine.
Mister_Georges
Il sont utilisés pour l’IA avant tout, recherche scientifique etc…<br /> NVIDIA<br /> NVIDIA HGX A100 : avec des GPU A100 et la technologie NVSwitch<br /> La plateforme pour Data Center de bout en bout la plus puissante au monde pour l’IA et le HPC.<br />
Sampro
La consommation commence vraiment a m’intéresse énormément et les GPU commence vraiment a consommer énormément, c’est pas une questions d’argent mais vraiment çà commence a être chaud
bmustang
nvidia devrait aussi se lancer dans les centrales à charbon, tant qu’à faire ! Et on peut dire que nvidia n’est pas un champion de l’écologie.
LeVendangeurMasque
700 W ? Et pourtant c’est du 4nm !<br /> Bon en gros eux et Intel sont définitivement dépassés.<br /> On rappellera que déjà la loi Californienne interdit certains PC à la vente parce qu’ils consomment trop.<br /> Entre le risque que ce genre de loi apparaisse ailleurs, et de toute façon un prix de l’électricité qui va exploser, de plus en plus de clients seront tout simplement obligés de se tourner vers des produits avec un rapport performance/consommation plus rationnel.<br /> Le pire c’est que doubler la consommation ne double absolument pas les performances. Là ils sont vraiment au bout de leurs choix technologiques.
Popoulo
@LeVendangeurMasque : mais oui c’est cela. Va donc leur expliquer comment faire.
Tritri54
Vu la consommation qui augmente en flèche, ils seront bien obligés de la réduire tout en conservant les performances ?<br /> ça voudrait dire une génération fin 2022 ou fin 2024 qui n’aura pas un gap de performances énorme pour réduire cette conso ?<br /> Question de curiosité car une 3080 qui consomme 330W pour ma part c’est énorme déjà
iodir
On voit quand même qu’on arrive au bout de la technologie de gravure. S’ils ne sont plus capables d’augmenter les performances qu’en augmentant la consommation électrique, c’est que la finesse de gravure diminue beaucoup moins qu’ils ne le font croire.
LeVendangeurMasque
Oh tu sais je suis sûr qu’ils savent bien déjà qu’ils sont dans la merde. Faut dire qu’en fait c’est l’architecture x86 qui est dans une impasse. Donc eux tout seuls ils peuvent pas y faire grand chose.<br /> Ni toi ni moi n’avons de piste d’amélioration à cette situation. Y’a qu’en repartant de zéro que le PC à un avenir…<br /> Mais bon Nvidia peut bien faire comme Intel et continuer à se persuader que tout va très bien et que le client sera près à mettre toujours plus cher dans une architecture dépassée et au rendement ridicule.<br /> Dans le genre Nokia et Blackerry avaient fait le même pari…
LeVendangeurMasque
Et le pire c’est que c’est pas qu’un problème de mettre une alim plus grosse (et la facture d’élec qui va avec…). Faut aussi les dissiper les 700W. Faut aimer le bruit et la chaleur…
Gwynplaine
Le M1 Ultra fait combien de TDP et de Gflop ?
Sampro
C’est vraiment ça qui me dérange vraiment. Ca deviens trop important la consommation devient trop importante pour passer crèmes. Non moi çà deviens bcp trop chaud pour moi. Carrément lan prochain cest 1kwh non je passe.
LeVendangeurMasque
20 Tflops pour environ 60W.<br /> Tu vas vite voir bondir ceux qui vont te dire: « oui mais la 3090 elle fait 30 Tflops ! ».<br /> Alors 2 détails à prendre en compte:<br /> 1/ La 3090 c’est au moins 300W. Soit donc par TF, une consommation 3 fois supérieure. C’est pas réjouissant pour l’avenir…<br /> 2/ La 3090 n’ira pas forcément beaucoup plus vite en pratique: déjà parce que sa ram est limitée, alors qu’un M1 peut utiliser toute la mémoire de l’ordi si besoin. Et que parce que la mémoire n’est pas unifiée les échanges CPU-GPU sont extrêmement pénalisants sur un PC.
Pernel
On est tous d’accord, je pense, après ici c’est pas fait pour « nous » c’est un marché pro et encore une petite niche de pros, pour les « notres » je ne sais pas, les rumeurs indiquent une conso de dingue (enfin, encore pire que maintenant), mais bon les rumeurs … on sera vite fixé, après perso je ne changerais pas de GPU avant … quelques années j’espère ^^
stratos
le m1 ne prend pas cuda ou opencl, donc au revoir pour le pro<br /> La c’est pour des server de calcul donc inutile de comparer la conso etc au gpu grand publique.<br /> c’est une niche
stratos
a moins d’avoir plein de server de calcul chez vous ce n’est pas destiné à vous
Sampro
Je te jure
Sampro
Mêmes si ca consomme bcp trop, le double de la consommation mais pas le double de performances
Pernel
2/ oui et non, en latence la mémoire unifiée va plus vite mais est très limité en quantité, quand on utilise le stockage ça va beaucoup beaucoup beaucoup moins vite. Et la 3090 a certes une latence un peu plus élevée mais les 24Go de VRAM sont a quasiment 1To/s.
Voir tous les messages sur le forum

Lectures liées

Une carte mère et un SSD de 1 To à ce prix là, c'est une offre à ne pas manquer !
Profitez de cette clé USB de 128go à prix cassé en ce moment chez Amazon
Cette carte graphique AMD Radeon RX 6700 XT voit son prix chuter !
Cet écran PC LG Ultrawide 29
Le prix du kit mémoire RAM PNY XLR8 2x8 Go DDR4 s'effondre
Chute de prix sur le boîtier PC moyen tour Corsair 275R Airflow
Logitech revisite sa gamme MX Master avec sa souris phare et deux claviers mécaniques
Microsoft dévoile son Project Volterra, un PC ARM aux allures de Mac mini
Découvrez la liste des nouveaux jeux compatibles avec le DLSS et le ray-tracing de NVIDIA
Dernière chance pour profiter des offres PC Fnac (jusqu'à -320€)
Haut de page