Commentaires : Le P.-D.G. de NVIDIA sort (littéralement) de nouvelles cartes graphiques du four

Dans une brève vidéo publiée sur sa chaîne YouTube, l’entreprise NVIDIA met en scène son P.-D.G., Jensen Huang. Ce dernier est filmé dans sa cuisine, sortant de son four ce qu’il présente comme « la plus grande carte graphique du monde ».

1 J'aime

Quand j’étais étudiant, j’ai aussi mis ma carte NVIDIA au four, pour le reflow des soudures fatiguées ! Elle remarchait quelques temps, mais il fallait le refaire une fois par mois…

la génération 3000, bref inutile de se ruer sue les 2000 sauf pour le prix mais en ce moment c’est toujours à prix d’or.

« Les cartes sont cuites » ah ah :smiley:

1 J'aime

ah, ah, c’est génial.

SamGold, on s’en balance de l’argent des autres, de toute façon là-bas ils ont des goûts horribles en déco (pour rester poli).

On ne voit rien par aucune fenêtre… le Mec est Co fondateur de Nvidia… l’un des fleurons technologique du monde… t’es envieux ou juste tu ne comprend pas qu’il se permette de faire ce qu’il veut de sa vie sans ton approbation ?!

3 J'aime

Oui. Un peu le genre de personne à gueuler « A mort le capitalisme » et à le twitter sur son iphone à 1400 boules.

2 J'aime

ça marchait avec les Xbox aussi lol

Par contre on a eu pas mal d’ATI qui fallait mettre au frigo pour les calmer :stuck_out_tongue:

Et on a eu pas mal d’ATI qui chauffaient et consommaient beaucoup moins, avant que Nvidia parvienne enfin à gérer ça, et ne parlons même pas des cartes qui ont gagné le surnom de « sèche-cheveux » tant elle étaient bruyantes…mais pour savoir ça, il faut avoir une expérience et une vue d’ensemble qui remonte à plus de quelques années ^^

Je me rappel de la GTX 480 qu’il y en a qui ont essayé de faire cuire un oeuf dessus :joy:

Oui, et à l’époque la rivale directe de la GTX 470 (et même de la 480 sur certains jeu) était la HD5870…j’en avais une et elle n’a jamais dépassé les 65° avec le ventilo à 50% sur aucun de mes jeux ^^

ATI maîtrisait depuis longtemps la chauffe et la consommation, et Nvidia n’a commencé à savoir le faire qu’avec l’architecture Kepler apparue en 2012 neutre