OpenAI veut continuer à grandir, encore et toujours plus vite. Au point de faire état d'un besoin démesuré en GPU pour améliorer ses modèles de langage !

OpenAI a toujours des ambitions gigantesques © Shutterstock
OpenAI a toujours des ambitions gigantesques © Shutterstock

Le secteur de l'intelligence artificielle est devenu depuis un peu plus de deux ans le domaine de la démesure. Démesure des ambitions évidemment, avec, à l'horizon, l'intelligence artificielle générale, mais aussi des moyens. Car il faut énormément d'énergie pour améliorer les systèmes IA. Et aussi de très nombreux GPU, dont les plus prisés, ceux de NVIDIA, coûte chacun énormément à l'unité. Pas de quoi pourtant freiner les ardeurs d'un Sam Altman.

Sam Altman parle maintenant de 100 millions de GPU à trouver

On le sait, Sam Altman n'est pas du genre à avoir peur de présenter des chiffres démentiels. On se souvient qu'il avait ainsi chiffré l'investissement nécessaire à la création d'une intelligence artificielle générale à 7 000 milliards de dollars. Et aujourd'hui, il nous offre une nouvelle manifestation de sa tendance au gigantisme.

Dans un message posté sur X, il indique ainsi qu'OpenAI devrait bénéficier d'un parc de plus d'1 million de GPU d'ici à la fin de l'année. Et dans le même post, il ajoute derrière que « très fier de l'équipe », il attend dorénavant qu'elle travaille sur une manière de pouvoir créer des canaux de fourniture permettant d'en récupérer 100 fois plus à l'avenir.

Un chiffre fantaisiste ?

Évidemment, l'ambition est tellement énorme que le patron de la firme a dû ajouter un petit « lol » à la fin de cette communication. Mais elle témoigne de l'horizon ambitieux visé par OpenAI, et aussi, au fond, des moyens qui seront nécessaires pour pouvoir bénéficier au maximum des bienfaits de la technologie de l'intelligence artificielle.

Les concurrents d'OpenAI ne sont d'ailleurs pas loin d'avoir le même point de vue. On sait par exemple que pour son seul superordinateur Colossus 2, Elon Musk souhaite pouvoir utiliser 1 million de GPU. Reste tout de même que la concentration d'autant de puces, qui consomment énormément, serait un défi énergétique gigantesque. 100 millions de GPU, tournant chacun à 750W, représenteraient une puissance totale de 75 GW. Serait-ce réaliste pour les 10 prochaines années à venir  ?

Source : Wccftech

ChatGPT
  • Chat dans différentes langues, dont le français
  • Générer, traduire et obtenir un résumé de texte
  • Générer, optimiser et corriger du code
9 / 10