🔴 French Days en direct 🔴 French Days en direct

NVIDIA dévoile son nouveau GPU H200 : un monstre de puissance au service de l'intelligence artificielle

16 novembre 2023 à 19h17
9
Système HGX H200 © NVIDIA
Système HGX H200 © NVIDIA

Oubliez le GPU H100 avec ses 80 Go de mémoire et sa bande passante d’un peu plus de 3 To/s ; voici le H200, une version surchargée en HMB3e, qui offre encore plus de débit.

Tout le monde connaît NVIDIA pour ses cartes graphiques GeForce (avec notamment des RTX 40 bientôt déclinées en version Super), mais l’entreprise jouit aussi d’une grande expertise en matière de GPU pour serveurs.

Son Hopper H100, un GPU de 80 milliards de transistors offrant 132 multiprocesseurs de flux et 18 432 cœurs CUDA, le tout épaulé par 80 Go de HBM2e ou HMB3, et qui engloutit 700 watts (W), en est une belle illustration.

Il a désormais un petit frère par la chronologie, mais grand frère par les spécifications, le H200, présenté par NVIDIA à l’occasion du Supercomputing 23. La société a également introduit une carte serveur GH200.

Davantage de mémoire, mais aussi de bande passante

NVIDIA n’a pas détaillé toutes les caractéristiques du H200, mais c’est clairement un H100 dopé à la mémoire HBM3e. D’ailleurs, l’entreprise le présente, à juste titre, comme le premier GPU à bénéficier de ce type de mémoire.

Le H200 hérite de 141 Go de mémoire et non plus seulement de 80 Go. Cadencée à 6,25 Gbit/s, cette HBM3e offrirait une bande passante mémoire de 4,8 To/s.

Caractéristiques principales NVIDIA H200 © NVIDIA
Caractéristiques principales NVIDIA H200 © NVIDIA

Pour la comparaison, la H100 PCIe intègre de la mémoire HBM2e à 3,2 Gbit/s exploitée via un bus de 5120 bits pour une bande passante de 2 To/s ; la H100 SMX5 profite quant à elle de modules HBM3 à 5,23 Gbit/s, pour une bande passante mémoire de 3,35 To/s.

En mettant de côté des solutions hybrides comme le H100 NVL (une combinaison de deux GPU H100 avec 94 Go de mémoire chacun pour des bandes passantes de 3,9 To/s x2), le H200 offre ainsi 76 % de mémoire et 43 % de bande passante en plus que la déclinaison SXM du H100.

Cela reste à confirmer, mais le reste des caractéristiques (la quantité de cœurs) ne change pas. Toutefois, pour les grands modèles de langage très friands de mémoire et de bande passante, ce H200 surchargé en HBM3e devrait logiquement apporter un boost de performances non négligeable.

Indice performance modèle GPT-3 175B © NVIDIA
Indice performance modèle GPT-3 175B © NVIDIA

NVIDIA illustre dans quelle mesure sous le modèle GPT-3 (version à 175 000 milliards de paramètres). La société argue qu'un nœud de 8 GPU H200 se montre 18 fois plus performant qu’un d’A100, alors que le H100 ne l'est « seulement » que 11 fois plus. Vous noterez d’ailleurs l’allusion à la prochaine génération de GPU NVIDIA, nom de code Blackwell.

Des systèmes HGX qui profitent de ce nouveau GPU

Le H200 sera notamment proposé au sein des serveurs NVIDIA HGX H200, lesquels resteront compatibles à la fois avec le matériel et les logiciels des systèmes HGX H100.

Supercalculateur Jupiter © NVIDIA
Supercalculateur Jupiter © NVIDIA

Il sera aussi disponible via la puce NVIDIA GH200 Grace Hopper Superchip avec HBM3e. Présentée en août dernier, cette version combinera donc des cGPU (H200) et Grace CPU Superchip sur une même puce.

Le NVIDIA H200 fera ses débuts au cours du deuxième trimestre 2024. Il doit servir au sein de plusieurs supercalculateurs. Parmi ceux-ci, citons Alps du Centre suisse de calcul scientifique, le Venado du Los Alamos National Laboratory aux États-Unis ou encore Jupiter, le supercalculateur du Jülich Supercomputing Centre en Allemagne.

Dans le parcours d'un joueur ou d'un créateur, le choix d'une carte graphique n'est pas de ceux qu'il faut prendre à la légère. C'est pourquoi nous avons testé pour vous les différents modèles disponibles et retenus la crème de la crème.
Lire la suite

Source : NVIDIA

Vous êtes un utilisateur de Google Actualités ou de WhatsApp ? Suivez-nous pour ne rien rater de l'actu tech !
google-news

A découvrir en vidéo

Rejoignez la communauté Clubic S'inscrire

Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.

S'inscrire

Commentaires (9)

spark90
700W ! Lol
Kriz4liD
Un petit réchaud !
_Reg24
C’est une carte destiné au pro / data centre, donc la consommation, c’est pas forcément un problème.<br /> 700W peut paraitre beaucoup, mais c’est surement bien plus efficient qu’une 4090 qui peut en tirer jusqu’à 600W selon les tâches, et bien sur, pas le même prix!
spark90
oui bien sur, mais quand on voit la finalité de l’usage c’est complètement con… que de ressources dépensées pour du vent…<br /> «&nbsp;version à 175 000 milliards de paramètres&nbsp;»<br /> → si on veut toutes les données en mémoire, il faut juste 175.000 Go de RAM/VRAM
MattS32
spark90:<br /> oui bien sur, mais quand on voit la finalité de l’usage c’est complètement con… que de ressources dépensées pour du vent…<br /> La finalité de l’usage, c’est par exemple Jupiter, le futur plus gros calculateur européen, qu’nVidia a eu le bon goût de mettre en avant dans sa présentation, destiné à faire de la recherche scientifique, principalement dans le domaine pharmaceutique et dans l’environnement. Complètement con ?<br /> spark90:<br /> → si on veut toutes les données en mémoire, il faut juste 175.000 Go de RAM/VRAM <br /> Non. 700 Go si on travaille en simple précision, 350 si on travaille en demi-précision. D’où le fait qu’un noeud de 8 GPU (1128 Go de RAM) permette de le faire tourner.
PyratOne
Exclusivement pas pour la Chine !!
Stellvia
Ca c’est TON analyse (bidon), quand à l’IA si tu n’a pas compris que c’est le même niveau de révolution qu’internet ou les smartphones et bien tant pis le monde va continuer sans toi.
Mr.Net
Pensez à votre phrase quand vous commanderez des babioles chinoises sur amazon.
ypapanoel
can it run Doom?
kyosho62
_Reg24:<br /> 700W peut paraitre beaucoup, mais c’est surement bien plus efficient qu’une 4090 qui peut en tirer jusqu’à 600W selon les tâches, et bien sur, pas le même prix!<br /> C’est le GPU H200 qui fait 700W de consommation électrique d’où le (W) entre parenthèse dans l’article, 600W dont tu parle pour la 4090 c’est la consommation électrique de la config entière.
Voir tous les messages sur le forum
Haut de page

Sur le même sujet