NVIDIA : les Geforce RTX 40 lancées en septembre avec un TGP monstrueux ?

Nathan Le Gohlisse
Spécialiste Hardware
24 février 2022 à 14h46
38
La RTX 3090 Ti, pour illustration // © NVIDIA
La RTX 3090 Ti, pour illustration // © NVIDIA

Les futurs GPU NVIDIA RTX 4000 « Ada Lovelace » pourraient vous coûter très cher… en électricité. D'après plusieurs rumeurs distinctes, la prochaine lignée de cartes graphiques NVIDIA pourrait culminer à presque un kilowatt (kW) de TGP pour les modèles haut de gamme. Rien que ça.

Performances furieuses, et consommation record. C'est ce que pourrait nous proposer NVIDIA avec sa prochaine génération de cartes graphiques de bureau RTX 4000 « Ada Lovelace », attendue sur la seconde moitié de 2022. Cette nouvelle gamme de puces gravées en 5 nm pourrait développer des performances de haute volée, mais au prix d'un TGP effrayant, tout du moins si l'on en croit les rumeurs émanant de deux leakers sur Twitter.

Vers un flagship à plus de 800 W ?

En l'occurrence, la puce AD102 (la plus haut de gamme du futur line-up de NVIDIA), pourrait monter à un TGP de plus de 800 W. Le leaker Greymon55, souvent bien informé, estime même que la puce pourrait aller jusqu'à 850 W dans sa version complète, destinée à la future RTX 4090. Pressenti en septembre 2022, ce GPU serait décliné en trois versions pour motoriser les RTX 4080, 4080 Ti et 4090, avec TGP allant de 450 à 850 W suivant le modèle.

Et si les deux leakers à l'origine de cette rumeur de consommation (très) copieuse précisent bien que leurs informations renvoient à des chiffres non définitifs, WCCFTech estime pour sa part que les TGP évoqués pourraient s'avérer justes au bout du compte.

Des rumeurs cohérentes…

Le site spécialisé rappelle en effet que les prochaines cartes graphiques de NVIDIA devraient exploiter de nouveaux connecteurs d'alimentation PCIe Gen 5 développés pour offrir jusqu'à 600 W par connecteur. Or, de précédentes rumeurs laissaient entendre que la RTX 4090 pourrait être équipée de deux connecteurs de nouvelle génération. Ces derniers n'auraient alors aucun mal à lui fournir 800 ou 850 W.

Avec cette nouvelle génération de cartes graphiques, NVIDIA miserait pour rappel sur des performances doublées par rapport aux modèles actuels. De quoi expliquer en partie cette possible montée en TGP (la RTX 3090 de référence se limite à 350 W).

Côté spécifications, la puce NVIDIA AD102 pourrait embarquer 18 432 cœurs CUDA pour une vitesse d'horloge de 2,2 GHz. Nous pourrions ainsi bénéficier d'une puissance de calcul de 81 TFLOPs en FP32. La RTX 3090 existante se « contente » pour sa part de 36 TFLOPs de puissance de calcul FP32.

Source : WCCFTech

Nathan Le Gohlisse

Spécialiste Hardware

Spécialiste Hardware

Passionné de nouvelles technos, d'Histoire et de vieux Rock depuis tout jeune, je suis un PCiste ayant sombré corps et biens dans les délices de macOS. J'aime causer Tech et informatique sur le web, i...

Lire d'autres articles

Passionné de nouvelles technos, d'Histoire et de vieux Rock depuis tout jeune, je suis un PCiste ayant sombré corps et biens dans les délices de macOS. J'aime causer Tech et informatique sur le web, ici et ailleurs. N’hésitez pas à me retrouver sur Twitter !

Lire d'autres articles
Vous êtes un utilisateur de Google Actualités ou de WhatsApp ? Suivez-nous pour ne rien rater de l'actu tech !
google-news

A découvrir en vidéo

Rejoignez la communauté Clubic S'inscrire

Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.

S'inscrire

Commentaires (38)

hylea12
c’est pas très green tout ça. en hiver ça chauffe la maison, mais en été …
dredd
J’ai du mal à rester poli.
batmat
Diantre
eykxas
Je n’y crois pas. C’est sans doute l’alim recommandée pas le TGP du GPU. Il y avait exactement les mêmes rumeurs à l’époque pour la 3090 et au final c’était juste l’alim suggérée qui était de 850 watts. Et pas la CG en elle même (450).
Popoulo
@eykxas : Je pense la même chose. Après, du moment que ça envoie du lourd on s’adaptera.
Guillaume1972
Perso, je ne le pense pas, si doublement des performances il y a, alors celui-ci doit aller de concert avec un doublement de la consommation. Même si il y a optimisation, les chiffres ne me paraissent pas incohérents.
Cleindori
On s’en fout, on n’en verra pas la couleur non plus.
Popoulo
@Cleindori : Si, en photo
eykxas
ça ne fonctionne pas comme ça. Il y a tellement de moyen de doubler les perfs &gt;<br /> modification d’architecture (plus d’IPC à conso égale)<br /> amélioration du process de gravure (plus de transistor à conso égale, ou plus de fréquence ce qui dans les deux cas fait plus de perfs)<br /> optimisation logicielles (plus efficace à conso égale donc performance en hausse)<br /> et très souvent c’est un mix de tout ça.<br /> Que les GPU « entier » dédié aux serveurs atteignent de telles conso c’est possible (mais ça serait une grossière erreur de la part de Nvidia) mais pour les particulier non. Ils ne lanceraient jamais de tels GPU. A moins qu’ils aient l’ambition de faire le plus gros flop commercial de l’histoire. Mais je ne pense pas que les gens de Nvidia soient aussi idiot que ça.
romain280
Je sens une petite pénurie des familles sur les alimentations pour ordis arriver perso.<br /> D’abord la production des cartes graphiques en PLS, puis les prix de ces mêmes cartes qui explosent et peut être bientôt ce sera au tour des alimentations.<br /> Ah oui y’a Mama Planête Terre qui dit stop aussi.
tux.le.vrai
Le progrès, c’est l’amélioration du rapport performance/consommation, et performance/prix.<br /> Doubler les perfs en doublant la conso, c’est nul !
MAD5D
Moi je me demande si ça serait pas un peu voulu … On arrive à choper des cartes graphiques (même FE) avec un peu d’effort (là ou avant c’était plus rentable de jouer au loto et de payer la CG avec le gain de ce loto). Si on sort des cartes graphique 2 fois plus efficace, les mineurs vont ressauté dessus. Mais si elles sont deux fois plus puissante ET deux fois plus gourmande, pas d’intérêt « nouveau » pour les mineurs …<br /> Ou alors j’deviens complotiste … c’est peut-être plus probable d’ailleurs …
Werehog
Elles vont être 2 fois plus chères aussi ?
Bendito
Lancées contre un mur ou sur le marché des mineurs ?
zagobel
C’est comme brancher un écran sur un radiateur électrique d’appoint, nan ?
Alpach93
Si cette carte est vachement gourmande même si cela procure le double de puissance (81 TFLOPs contre 36 pour la 3090 d’après l’article, en bas), si c’est pour la 4090 d’accord.<br /> Mais faut voir les autres modèles si c’est plus abordable niveau énergie/puissance.
Emmanuel_Angulo
De toutes façons, on parle ici des gammes 4080 / 4090 , pas des 4060 et 4050 qui seront, comme à chaque fois, les flag ships du grand public.<br /> Et puis, sachant que le 1440p devient la norme, les cartes actuelles sont largement capables de le supporter, donc, on va vers une fracture sociales en de GPU, avec d’un côté les « vrais » joueurs qui auront des 4060ti et ensuite, les autres.
crush56
Qui es tu pour définir le progrès ?<br /> C’est une notion abstraite et subjective.<br /> Personnellement si je pouvais doubler la conso de ma carte pour doubler les perfs ça serait avec plaisir
DrCarter95
C’est chaud…
tux.le.vrai
et bien, tu peux ajouter, en tête de mon post<br /> « A mon humble avis »<br /> et il semble déjà partagé, mon humble avis.
sebstein
Oh, ils en font déjà de très gros des flops… des gigaflops même.
sebstein
Si on suit les TGP / référence proposés, la 4090 Ti aurait un TGP supérieur au kW…
eykxas
Mais comment vous pouvez gober ça… Je sais pas si vous vous rendez compte du niveau de connerie de cette rumeur. Déjà ceux qui ont lancé la rumeur ne savent pas compter… 18432 core cuda si c’est confirmé ne fait pas deux fois Ampere (10752)<br /> Ensuite, Ada lovelace est pressenti pour être gravé en 5nm de chez TSMC. Un process immensément plus efficace que le 8nm de Samsung utilisé actuellement pour les RTX 3000.<br /> Le 8nm Samsung propose une densité de 44,56 millions de transistors par mm². Le 7nm de TSMC 96 millions et le 5nm de TSMC 127 millions.<br /> Donc déjà, la taille du die ne peut être aussi importante qu’ils le disent. Comme vous le voyez l’augmentation en core cuda n’est pas aussi importante que l’amélioration du process. Bien sûr il est possible que l’architecture des RTX 4000 soit plus complexe et que ça prenne un peu plus de place, mais dans le cas le plus défavorable on serait à peine plus gros qu’Ampere.<br /> Enfin, le process de TSMC est très conciliant sur la montée en fréquence des transistors aussi bien sur le 7nm que le 5nm. 2,2 GHz comme pressenti n’est pas grand chose pour du 5nm. Rien qui ne fasse exploser la consommation.<br /> Bref… Tout ça pour dire, cette rumeur n’a aucun sens et est sans doute fondé sur rien du tout. C’est encore un pseudo « expert » qui a trouvé un chiffre au hasard et balance ça comme ça. (Le fameux greymon55 relayé par wccftech)
eykxas
Et au passage, j’ajouterai ça :<br /> Screenshot_20220224-1841241080×836 154 KB<br />
philumax
On va sûrement avoir une nouvelle série, sur Netflix, sur la saga des RTX…<br /> La fiction, y a que ça !
sebstein
Euh… ce n’est pas moi qui gobe n’importe quoi, mais toi que ne sais pas lire…<br /> Le début de ma phrase :<br /> Si on suit les TGP / référence proposés<br /> C’est pourtant pas compliqué à comprendre…
Gmp13000
J’imagine la version TESLA de la carte, 600W en refroidissement passif, adressage du PCIe en 64 bits (4g décoding)…<br /> Ouille…
Yannk
si des jeux nécessites une telle puissance pourquoi pas mais j avoue que pour l instant les 30xx sont déjà plutôt pas mal.
cid1
il ont dit qu’ils allaient sortir la 3090 TI et on a « vu » ce que çà a donné, et là ils nous sortiraient des cartes encore plus puissantes, j’ai du mal à y croire…
cpicchio
Vous vous trompez Crush56 : le progrès en Informatique sur le long terme a toujours été l’augmentation de la performance sur la consommation car sans progrès sur l’efficience énergétique, on aurait très vite atteint des limites ‘physiques’ en terme de refroidissement.<br /> Si cette news est vraie, cela montre juste une chose : NVIDIA est prêt à sortir une carte invendable et irréaliste en terme de consommation pour montrer qu’il a toujours le leadership de la performance.<br /> Un peu puéril et mauvais joueur face à la concurrence quand même.
philou44300
Si ca se confirme je passerai mon tour. Déjà que la nouvelle génération de processeurs a vu la consommation grimper. Et puis pas envie de réinvestir dans une alim onéreuse en plus pour couvrir toutes ces hausses de consommation. Ils ont cas optimiser surtout qu’une gravure plus fine au fur et à mesure des années devrait permettre une réduction en plus d’optimisations.<br /> Pour le moment je resterai avec mon i5 12600k + rtx 3070.
Popoulo
@eykxas : mdr. Au final, un article basés sur… rien.
eykxas
le pire c’est que tu peux démontrer les choses en long en large et en travers, les gens ne cherchent même pas à comprendre. Que les journalistes ne vérifient pas, ça peut se comprendre c’est du business. Mais que les gens ne réfléchissent même pas à ce qu’ils lisent… ça me déprime.
Urleur
Extra ! avec la pénurie/prix au final on se passeras de la génération 30xx, vivement que tout redevienne à la normale.
zomurn
Rien à ajouter !
Voir tous les messages sur le forum
Haut de page

Sur le même sujet