Combien ?! Le prochain modèle de ChatGPT va demander énormément de cartes graphiques... NVIDIA

Robin Lamorlette
Publié le 02 mars 2023 à 10h35
© Shutterstock / Clubic
© Shutterstock / Clubic

Avec l'évolution exponentielle des modèles d'IA comme ChatGPT vient un appétit tout aussi gargantuesque.

Trendforce s'est en effet fendu d'un rapport d'estimation quant au nombre de cartes graphiques nécessaires pour alimenter la nouvelle itération du modèle développé par OpenAI… et c'est NVIDIA qui va être contente.

Un appétit insatIAble

On ne vous apprend rien, ChatGPT est un beau bébé qui a bien grandi. En quelques années seulement, le modèle GPT qui l'anime a connu une évolution fulgurante. En 2018, les paramètres d'entraînement nécessaires à son alimentation s'approchaient des 120 millions. Deux ans plus tard, ce chiffre déjà énorme atteignait les 180 milliards.

Pour nourrir le modèle toujours plus gourmand en données, la demande de cartes graphiques boostées à l'IA et avec suffisamment de puissance de calcul s'est envolée. Ainsi, Trendforce a revu ses estimations en ce sens à la hausse pour le nouveau modèle de ChatGPT.

En 2020, pour être suffisamment alimenté, celui-ci avait ainsi besoin de 20 000 cartes graphiques. Pour le prochain modèle développé par OpenAI, Trendforce estime que nous allons allègrement dépasser la barre des 30 000. Et il s'agit-là d'une estimation « optimiste ».

NVID-IA retrouve le sourire

Cet exorbitant chiffre de 30 000 cartes graphiques nécessaires s'appuie en tout cas sur le modèle A100 de NVIDIA. À l'heure actuelle, il s'agit d'une des puces alimentées par l'IA les plus rapides du marché, avec 5 pétaflops de puissance.

Dans l'état actuel des choses, NVIDIA se trouve ainsi dans une position extrêmement avantageuse, étant le seul constructeur avec une telle avance dans le domaine de l'intelligence artificielle. Ce n'est certainement pas pour lui déplaire, alors que le marché des cartes graphiques pour particuliers s'effondre.

Il n'appartient donc pour l'instant qu'à NVIDIA de maintenir la cadence et de produire assez de cartes graphiques pour alimenter l'appétit d'ogre de ChatGPT et autres IA. Avec la popularité aussi grandissante de ces dernières que leur besoin en énergie, le constructeur pourrait même mettre davantage d'œufs dans ce juteux panier et développer des modèles encore plus puissants… et très prisés.

ChatGPT
  • Chat dans différentes langues, dont le français
  • Générer, traduire et obtenir un résumé de texte
  • Générer, optimiser et corriger du code
10 / 10

Source : Trendforce

Par Robin Lamorlette

Fan absolu de tech, de films/séries, d'heroic-fantasy/SF et de jeux vidéos type RPG, FPS et hack&slash qui se shoote à coups de lore sur Star Wars, The Witcher, Cyberpunk, Game of Thrones et Donjons & Dragons/Baldur's Gate 3.

Vous êtes un utilisateur de Google Actualités ou de WhatsApp ?
Suivez-nous pour ne rien rater de l'actu tech !
Commentaires (0)
Rejoignez la communauté Clubic
Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.
Commentaires (10)
bennukem

Je doute que ce soit des cartes graphiques mais plus des cartes dédiées à l’IA. Où peut être qu’ils ont beaucoup d’écrans à brancher

SPH

J’espère que cette histoire ne va pas faire ré-augmenter les CG ! :roll_eyes:

ayaredone

20/30000 cartes c’est finalement très peu par rapport à la production totale. Ou je me trompe-je ?

zeebix

Pas besoin d’y brancher un écran obligatoirement pour exploiter les GPU, à l’image des mineurs de crypto.

MattS32

Les cartes comme l’A100 ont beau être destinées avant tout au calcul sans affichage, ça reste techniquement des cartes graphiques, elles ont un GPU, avec toutes ses unités de calcul… Et même si elles sont dépourvues de sortie vidéo, elles sont capables de faire du rendu graphique pour de l’affichage, puisque depuis pas mal d’années déjà il est devenu possible de transférer le framebuffer d’une carte graphique vers une autre via le PCI-E (par exemple, tu peux tout a fait avoir une configuration bi-écran avec une GeForce pour un écran, un IGP pour l’autre écran, mais faire tourner un jeu sur l’écran piloté par l’IGP en faisant faire le rendu à la GeForce… sous Windows la règle par défaut est que si une application ne choisit pas explicitement le GPU qui sert pour le rendu, le rendu sera fait par le GPU connecté aux écrans qui couvrent la plus grande proportion de la fenêtre de l’application, mais l’application peut aussi explicitement choisir un GPU et rester sur celui là même si 100% de sa fenêtre est sur un écran géré par un autre GPU).

trollkien

Ca me semble en effet une goutte d’eau comparé aux mineurs de crypto.

De la à ce que cela suffise à Nvidia pour augmenter ses prix… il n’y a qu’un pas :stuck_out_tongue:

dredd

Ce sont bien des GPU, Graphic Processor Unit, donc des cartes graphiques…dépourvues de sorties graphiques.

Ca fait maintenant des années qu’on est dans le GPGPU, à savoir le General Purpose Graphic Processor Unit, Unité Processeur Graphique à but généraliste.

« Les cœurs Tensor des GPU A100 ainsi que leurs capacités de calcul de niveau TF32 (Tensor Float 32) vous offrent, sans changement du code-source, des performances jusqu’à 20 fois plus élevées par rapport aux GPU NVIDIA Volta et un rendement doublé grâce à la technologie NVIDIA de précision mixte automatique ainsi qu’à la prise en charge des calculs FP16. Mais ce n’est pas tout : l’association des technologies NVIDIA® NVLink® et NVIDIA NVSwitch™, de la norme PCI Gen4, de NVIDIA® Mellanox® InfiniBand® et du kit de développement logiciel NVIDIA Magnum IO™ vous permet d’interconnecter plusieurs milliers de GPU A100 pour bénéficier d’une puissance de calcul phénoménale. »

bon, maintenant, stricto sensu, une carte graphique n’est elle graphique que quand elle comporte une sortie écran ? Les GPU du Cloud Gaming, sont elles des carte graphiques ? Bonne question :smiley:

pecore

Après les fermes de minages, bientôt les fermes d’IA. On ne s’en sortira décidément jamais.

eaglestorm

ça serait quand même plus utile de faire ça pour l’IA que pour ces conneries de crypto

Ouk

Dans l’état actuel des choses, NVIDIA se trouve ainsi dans une position extrêmement avantageuse, étant le seul constructeur avec une telle avance dans le domaine de l’intelligence artificielle.

En 2022 les cartes BR104 du chinois Biren était déjà bien plus puissante que les nVidia A100.
Vu les avancées technologiques de la Chine et leur vitesse , ils doivent être en première position.