NVIDIA dévoile une nouvelle puce ultra puissante dédiée à l'IA

Nerces
Spécialiste Hardware et Gaming
19 mars 2024 à 14h20
9
Jensen Huang présente le Blackwell B200 (gauche) à côté du Hopper H100 (droite) © NVIDIA
Jensen Huang présente le Blackwell B200 (gauche) à côté du Hopper H100 (droite) © NVIDIA

B200 et GB200 sont présentés par NVIDIA qui les décrit comme « les processeurs les plus grands possibles avec la technologie actuelle ».

Le processeur H100 Hopper a fait de NVIDIA un géant de l'intelligence artificielle dont la capitalisation boursière est au niveau de celles de sociétés aussi colossales que Facebook (Meta) ou Google (Alphabet).

Pour Jensen Huang, le charismatique patron de NVIDIA, il ne s'agissait toutefois que d'un galop d'essai. La sortie prochaine des GPU Blackwell devrait permettre d'enfoncer le clou.

208 milliards de transistors

À l'occasion de la conférence GTC 2024, Jensen Huang a effectivement pris la parole pour dévoiler les B200 et GB200, deux processeurs sur architecture Blackwell ayant pour objectif de doper les performances IA.

NVIDIA Blackwell B200 © NVIDIA
NVIDIA Blackwell B200 © NVIDIA

La puce B200 associe deux cœurs de 104 milliards de transistors chacun © NVIDIA

NVIDIA n'y va pas par quatre chemins en expliquant que les remarquables performances du H100 Hopper seront multipliées par 5 dès lors que l'on parle d'intelligence artificielle. Le processeur B200 est d'ailleurs présenté comme le « plus grand processeur physiquement fabricable avec les technologies de gravure actuelles ».

Produit grâce au procédé N4P de TSMC, ce processeur est donc gravé en 4 nm, nœud indispensable pour atteindre un tel nombre de transistors alors que le H100 était déjà une puce étendue (814 mm²), mais devait se contenter de 80 milliards de transistors.

« Le moteur d'une nouvelle révolution industrielle » selon Jensen Huang © NVIDIA
« Le moteur d'une nouvelle révolution industrielle » selon Jensen Huang © NVIDIA

20 PFLOPs de puissance brute

La puce B200 déborde donc très largement ce nombre de transistors avec un total de 208 milliards répartis sur deux cœurs de 104 milliards chacun. Deux cœurs ? Oui, NVIDIA a ici opté pour la conception chiplet que l'on a souvent retrouvée chez sa principale concurrente, AMD.

Au sein de la puce B200, une interconnexion à 10 TB/s assure la plus efficace des communications et évite tout retard d'information. Chacun des deux chiplets Blackwell dispose aussi d'un bus mémoire de 4096-bit ainsi que de 96 Go de mémoire HBM3E répartis en quatre piles de 24 Go chacun. Au total, on parle donc de 192 Go de HBM3E pour la puce B200 complète. Une puce qui peut compter sur une bande passante mémoire incroyable de 8 To/s.

Caractéristiques des puces Blackwell de NVIDIA © TechPowerUp
Caractéristiques des puces Blackwell de NVIDIA © TechPowerUp

Nous le disions en début d'actualité, NVIDIA a également présenté le GB200, une « super-puce » qui associe deux GPU B200 et un CPU NVIDIA Grace afin d'offrir des performances encore supérieures. L'objectif est de concurrencer les puces Intel Xeon et AMD EPYC grâce, notamment, au lien d'interconnexion NVLink, théoriquement ce qu'il y a de plus efficace. NVIDIA parle de 20 PFLOPs de puissance brute pour chaque GPU B200.

Un chiffre que la firme américaine complète en précisant que c'est 2,5x les performances de la génération précédente, Hopper, sachant qu'en FP4, on est même à 5x les performances obtenues par cette génération complètement ringardisée par Blackwell. Terminons en évoquant la consommation de telles puces car le B200 est affiché à 1000 watts par NVIDIA alors que le GB200 vient battre tous les records, à 2700 watts.

Nerces

Spécialiste Hardware et Gaming

Spécialiste Hardware et Gaming

Tombé dans le jeu vidéo à une époque où il fallait une belle imagination pour voir ici un match de foot, là un combat de tanks dans ces quelques barres représentées à l'écran, j'ai suivi toutes les év...

Lire d'autres articles

Tombé dans le jeu vidéo à une époque où il fallait une belle imagination pour voir ici un match de foot, là un combat de tanks dans ces quelques barres représentées à l'écran, j'ai suivi toutes les évolutions depuis quarante ans. Fidèle du PC, mais adepte de tous les genres, je n'ai du mal qu'avec les JRPG. Sinon, de la stratégie tour par tour la plus aride au FPS le plus spectaculaire en passant par les simulations sportives ou les jeux musicaux, je me fais à tout... avec une préférence pour la gestion et les jeux combinant plusieurs styles. Mon panthéon du jeu vidéo se composerait de trois séries : Elite, Civilization et Max Payne.

Lire d'autres articles
Vous êtes un utilisateur de Google Actualités ou de WhatsApp ? Suivez-nous pour ne rien rater de l'actu tech !
google-news

A découvrir en vidéo

Rejoignez la communauté Clubic S'inscrire

Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.

S'inscrire

Commentaires (9)

MHC
Nvidia fait le beau pour maintenir haut le niveau de prix de son action et essayer d’aller encore plus MAIS en réalité, ils savent qu’ils ont atteint leur sommet et que les prochains mois seront plus concurrentiels car un nombre considérable d’acteur arrive sur le marché de l’IA (Intel avec son Gaudi, AMD avec son MI300, Huawei avec son Ascend 910B, Amazon AWS Trainium, Google Cloud TPU v5p, Facebook AI chip, OpenAI chip…).
billy77
Petite coquille entre Mo et Go : " dispose aussi d’un bus mémoire de 4096-bit ainsi que de 96 Mo de mémoire HBM3E répartis en quatre piles de 24 Go chacun."
Rainforce
Nvid.IA
craxxou
totalement d’accord avec toi sauf que nvidia a déjà de l’avance et propose un bon support logiciel en général donc avoir parole d’un pro amd
MHC
Je n’ai pas dit le contraire mais jusque là ils étaient dans une situation de quasi monopole. Leurs chips IA se négociaient véritablement à prix d’or. Maintenant avec la concurrence qui arrive en nombre, cela ne va plus du tout être pareil. Les clients vont regarder le rapport qualité-prix et forcément Nvidia va devoir revoir ses prix à la baisse et il lui sera difficile de continuer à vendre de tels volumes car ses plus gros clients que sont les géants du cloud ont développés leur propre chips IA.
Revenge77
Cela va être bon processeur tout public.<br /> Il faut voir s’il ne chauffe pas de trop pour l’intégrer à un supercalculateur pro.<br /> Sinon le problème, c’est fabriqué en Chine, donc en matière de sécurité des données et de vols d’ingénieuries, ce n’est pas top cela.<br /> J’éspère qu’ils suivent bien les employés afin qu’ils ne divulguent pas et vendent des secrets sous copyrights.
Goodbye
C’est pas fabriqué à Taiwan ?
Revenge77
Taiwan, île que les chinois revendiquent…J’aurais fait des avions sur une île entourée par le Pakistan, cela fait bizarre ou alors il faut enterrer l’usine lol<br /> «&nbsp;Le ministre chinois de la défense et son homologue américain se sont rencontrés pour la première fois et se sont mutuellement mis en garde au sujet de l’île autonome, revendiquée par Pékin.&nbsp;» (2022)
philouze
Il y a beaucoup plus efficace, et beaucoup moins cher que les GPU pour la partie inférence (qui va très vite devenir le gros des besoins) les LMU arrivent est c’est une sacré claque :<br />
Voir tous les messages sur le forum
Haut de page

Sur le même sujet