Le P.-D.G. de NVIDIA sort (littéralement) de nouvelles cartes graphiques du four

13 mai 2020 à 12h23
9

Dans une brève vidéo publiée sur sa chaîne YouTube, l’entreprise NVIDIA met en scène son P.-D.G., Jensen Huang. Ce dernier est filmé dans sa cuisine, sortant de son four ce qu’il présente comme « la plus grande carte graphique du monde ».

Demain, aura lieu la grande conférence annuelle dédiée aux GPUs : la NVIDIA GTC 2020, qui se déroulera cette année en ligne. Et avant l'événement, le constructeur américain a décidé de faire monter la sauce…

Les cartes sont cuites

La société a en effet mis en ligne une petite vidéo sur YouTube, mettant en scène Jensen Huang, son P.-D.G., et intitulée : « Qu'est-ce que cuisine Jensen ? ». Debout dans une cuisine, le dirigeant s'adresse – dans un jeu d'acteur époustouflant – à un public invisible, expliquant avoir « quelque chose à vous montrer ».

Il se tourne alors vers le four, ouvre la porte et – après un suspense de plusieurs secondes – présente finalement ce qu'il mijotait. « Mesdames et messieurs, ce que nous avons ici est la plus grande carte graphique du monde », affirme fièrement le dirigeant.

Une recette encore mystérieuse

On n'en sait toutefois pas davantage sur les ingrédients de cette préparation, qui semble posséder huit GPUs. Mais à l'approche de la GTC 2020, on devine que NVIDIA a voulu montrer un aperçu de ce qu'elle s'apprête à dévoiler officiellement.

Il s'agit donc probablement d'une carte graphique Tesla (aucun lien avec Elon Musk) s'appuyant sur la fameuse nouvelle architecture Ampère. Dès lors, les GPUs fraîchement sortis du four pourraient être des NVIDIA A100, prévus pour succéder aux P100 et aux V100.

Quoi qu'il en soit, il ne reste donc plus qu'un jour à attendre avant que l'entreprise ne nous donne les clés de sa recette. En espérant qu'elle ne fasse pas un four.

Source : Tom's Hardware

Bastien Contreras

Ingénieur télécom reconverti en rédacteur web. J'écris sur les high tech, les jeux vidéo, l'innovation... J'ai d'ailleurs été responsable d'accélérateur de startups ! Mais je vous réserve aussi d'autr...

Lire d'autres articles

Ingénieur télécom reconverti en rédacteur web. J'écris sur les high tech, les jeux vidéo, l'innovation... J'ai d'ailleurs été responsable d'accélérateur de startups ! Mais je vous réserve aussi d'autres surprises, que vous pourrez découvrir à travers mes articles... Et je suis là aussi si vous voulez parler actu sportive, notamment foot. Pour ceux qui ne connaissent pas, c'est comme du FIFA, mais ça fait plus mal aux jambes.

Lire d'autres articles
Vous êtes un utilisateur de Google Actualités ou de WhatsApp ? Suivez-nous pour ne rien rater de l'actu tech !
google-news

A découvrir en vidéo

Rejoignez la communauté Clubic S'inscrire

Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.

S'inscrire

Commentaires (9)

kroman
Quand j’étais étudiant, j’ai aussi mis ma carte NVIDIA au four, pour le reflow des soudures fatiguées ! Elle remarchait quelques temps, mais il fallait le refaire une fois par mois…
Urleur
la génération 3000, bref inutile de se ruer sue les 2000 sauf pour le prix mais en ce moment c’est toujours à prix d’or.
_Ludo
« Les cartes sont cuites » ah ah
c_planet
ah, ah, c’est génial.<br /> SamGold, on s’en balance de l’argent des autres, de toute façon là-bas ils ont des goûts horribles en déco (pour rester poli).<br />
zalphab
On ne voit rien par aucune fenêtre… le Mec est Co fondateur de Nvidia… l’un des fleurons technologique du monde… t’es envieux ou juste tu ne comprend pas qu’il se permette de faire ce qu’il veut de sa vie sans ton approbation ?!
Popoulo
Oui. Un peu le genre de personne à gueuler «&nbsp;A mort le capitalisme&nbsp;» et à le twitter sur son iphone à 1400 boules.
tinou7789
ça marchait avec les Xbox aussi lol
Hyenal_1_1
Par contre on a eu pas mal d’ATI qui fallait mettre au frigo pour les calmer
Blackalf
Et on a eu pas mal d’ATI qui chauffaient et consommaient beaucoup moins, avant que Nvidia parvienne enfin à gérer ça, et ne parlons même pas des cartes qui ont gagné le surnom de «&nbsp;sèche-cheveux&nbsp;» tant elle étaient bruyantes…mais pour savoir ça, il faut avoir une expérience et une vue d’ensemble qui remonte à plus de quelques années ^^
v1rus_2_2
Je me rappel de la GTX 480 qu’il y en a qui ont essayé de faire cuire un oeuf dessus <br /> gtx 480820×461 124 KB
Blackalf
Oui, et à l’époque la rivale directe de la GTX 470 (et même de la 480 sur certains jeu) était la HD5870…j’en avais une et elle n’a jamais dépassé les 65° avec le ventilo à 50% sur aucun de mes jeux ^^<br /> ATI maîtrisait depuis longtemps la chauffe et la consommation, et Nvidia n’a commencé à savoir le faire qu’avec l’architecture Kepler apparue en 2012
Voir tous les messages sur le forum
Haut de page

Sur le même sujet