Préparez vos alimentations, la GeForce RTX 4090 de NVIDIA devrait avoir un TGP de 600 W

Nerces
Spécialiste Hardware et Gaming
14 mars 2022 à 11h21
26
© NVIDIA
© NVIDIA

Le marché de la carte graphique s'apprête à connaître une nouvelle génération dont les exigences promettent d'être stupéfiantes.

À mesure que les rumeurs succèdent aux bruits de couloir, la chose semble devoir se confirmer : le haut de gamme de la prochaine génération de cartes graphiques NVIDIA – mais sans doute aussi AMD – va être très gourmand en énergie.

Quid du système de refroidissement ?

Depuis les premières informations relatives à la génération Ada Lovelace de NVIDIA, nous savons que le fer-de-lance de cette nouvelle gamme, la future GeForce RTX 4090, sera exigeante. Les indiscrétions de quelques observateurs bien informés viennent encore confirmer la chose.

Ainsi, tour à tour, kopite7kimi et Greymon55 ont appuyé l'idée que cette RTX 4090 aurait bel et bien un TGP de 600 Watts. Pour juger de l'inflation que cela représente, il convient de comparer ce chiffre aux 250 W de la RTX 2080 Ti et aux 350 W de la RTX 3090. Même la supposée RTX 3090 Ti ne serait « qu'à » 450 W de TGP.

Greymon55 est allé plus loin en avançant les TGP supposés d'autres cartes Ada Lovelace : la RTX 4080 serait déjà à 450 W et une éventuelle RTX 4090 Ti se calerait sur un TGP de 800 W. Des chiffres ahurissants qui ne doivent pas faire oublier qu'ils n'ont encore rien d'officiel.

Reste qu'avec de telles valeurs se pose bien sûr la question de l'efficacité énergétique de ces cartes, du bien-fondé d'une telle consommation et, enfin, du moyen d'évacuer une chauffe sans doute très importante. Sans avoir de réponse à donner, kopite7kimi évoque ainsi une carte graphique n'occupant plus trois, mais quatre emplacements PCI Express.

Source : WCCFTech

Nerces

Spécialiste Hardware et Gaming

Spécialiste Hardware et Gaming

Tombé dans le jeu vidéo à une époque où il fallait une belle imagination pour voir ici un match de foot, là un combat de tanks dans ces quelques barres représentées à l'écran, j'ai suivi toutes les év...

Lire d'autres articles

Tombé dans le jeu vidéo à une époque où il fallait une belle imagination pour voir ici un match de foot, là un combat de tanks dans ces quelques barres représentées à l'écran, j'ai suivi toutes les évolutions depuis quarante ans. Fidèle du PC, mais adepte de tous les genres, je n'ai du mal qu'avec les JRPG. Sinon, de la stratégie tour par tour la plus aride au FPS le plus spectaculaire en passant par les simulations sportives ou les jeux musicaux, je me fais à tout... avec une préférence pour la gestion et les jeux combinant plusieurs styles. Mon panthéon du jeu vidéo se composerait de trois séries : Elite, Civilization et Max Payne.

Lire d'autres articles
Vous êtes un utilisateur de Google Actualités ou de WhatsApp ? Suivez-nous pour ne rien rater de l'actu tech !
google-news

A découvrir en vidéo

Rejoignez la communauté Clubic S'inscrire

Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.

S'inscrire

Commentaires (26)

Winston67
C’est amusant , quand c’est un proc intel qui dépasse allégrement les 250-300 W c’est la fin du monde , intel littéralement cloué au pilori , quand c’est Nvidia , la communauté sur le net ne bronche pas , bien au contraire ils se disent qu’il va y avoir des perfs de malade<br /> Le monde est fou ^^
Pas_de_Bol
C’est d’un ridicule !<br /> La carte sera d’emblée interdite dans certains états US. Ce serait bien d’imposer des limites parce que ça devient insensé.
Antipub
A croire qu’ils vont à l’inverse de l’urgence climatique et donc énergétique.<br /> Comme par exemple le proc d’Apple qui allie évolution des perfs et conso.<br /> Y a un ratio perf/conso quelque part ?
beubeu
Ya une époque ou le moindre Watt consommé était de trop, les constructeurs faisant ce qu’il faut pour réduite au max la conso.<br /> Depuis un moment, c’est passé à la trappe, et tout est misé sur les perfs brut pour avoir la plus grosse. On fait évoluer la finesse de gravure, pour réduire la conso, mais au lieu de faire « mieux mais sans consommer trop », ils font du « je veux montrer que j’ai la plus grosse, coute que coute »<br /> Concept débile, conso sans limite aucune (sauf à faire des nouveaux standards pour augmenter la limite), le tout pour des prix aussi sans limites. La vision de ces constructeurs est déconnectée de ce qu’on cherche à faire dans plein de domaine, c-a-d réduire nos consommations globales.
angenoir
evidemment ca n’est que mon avis mais ce genre de carte s’adresse aux memes personnes qui , il y a qq annees faisaient du SLI ou du TRI-SLI …donc la consomation d’une carte a 600 w qui s’en soucie tant que le FPS explose dans les jeux ?..<br /> On achete pas une bugatti shiron si on a peur de depasser 5l au 100
crush56
Exactement, ceux qui recherchent uniquement de la puissance ne s’occupent pas de la consommation, et si une seule carte était limitée en performance ils en brancheraient plusieurs.
bibi10
que 600w! pas terrible …je veut 7000w sinon rien!! scandaleux!!
luck61
Il faudrait que Nvidia prenne exemple sur Apple car c’est abusé cette consommation d’énergie
SPH
Affligeant !<br /> Aujourd’hui, si on ne joue pas en 4K, une 3080 suffit largement.<br /> Et puis : quel jeu a besoin d’une 4000 à l’heure où on parle ?<br /> Ouai, affligeant !!
LedragonNantais
Moi qui suis en finalisation de mon projet de boitier open frame, c’est le genre de carte avec laquelle j’aurai pas besoin de radiateur à allumer dans le salon l’hiver xD
Tritri54
Ma 3080 me chauffe la chambre en même temps de jouer, c’est plutôt agréable
linkiiix1604
les RTX 5000 : 1000W super la facture d’électricité a la fin de chaque mois avec de tel Watt faudrait fixer des normes…
Nmut
On en reparle dans 4 mois?
stratos
C’est quelqu’un qui tweet sur quelqu’un qui lui a dit que certainement quelqu’un lui a confirmé.<br /> Bref ca reste une gamme bien particulière qui n’a jamais été économe en énergie.<br /> Ca concernera très peu de monde ou alors des fermes de bitcoins.<br /> C’est de la démonstration technique de puissance, comme les i9 etc…
Pernel
C’est pas comparable, les CPU ont toujours consommé beaucoup moins que les GPU, un CPU dépasse rarement les 150W, ce qui est déjà énorme, quand un fait 250 ou 300W C’est qu’il y a un gros problème.<br /> Il faut aussi se rappeler que quand AMD faisait Bulldozer, ça consommait comme un bulldozer et on lui crachait dessus (bon ça avançait comme un bulldozer aussi).
Mister_Georges
Ils se tirent une balle dans le pied…<br /> En comparaison le GPU unifié d’une puce M1 Ultra de chez Apple à des performances équivalentes à une RTX 3090 tout en ne consommant qu’environ 100W!
Pernel
Les gars, calmez-vous, hein. Vous vous énervez tout seul sur des RUMEURS !!! On n’en sait rien encore…<br /> D’autant que, combien d’entre vous vont acheter une 4090 ? Très peu, donc c’est un faux problème. Pour reprendre l’exemple de Noir, une Chiron comme énormément, mais est-ce qu’elle est dangereuse pour la planète ? Pas vraiment. Pourquoi ? Une voiture qui consomme 30L (exemple) mais vendu à 100 exemplaires dont 90% ne roule quasiment jamais et le peu qui roule ne roule que très peu est-elle plus nocive que 50 000 Clio (exemple) qui consomment 5L et roule beaucoup ?
Sampro
Au vue du prix de l’électricité tout ce qui consomme plus non merci
ar-s
Oui enfin le tarif d’entrée d’un Mi Ultra Studio est de 4 599 €…<br /> Mais je suis d’accord qu’Apple a fait très fort avec cette puce. C’est un bijoux.<br /> Après si on veut être très productif et se la jouer nouveauté qui éclate tout, on peut dire qu’AMD éclate tout le monde avec le Threadripper PRO 5995WX pour un TDP de 280w. ça reste beaucoup mais c’est incomparable à cette folie d’NVIDIA
ypapanoel
Ca me fait penser à 3DFX : la gen 2 consommait le double de la gen1, pour des perfs il est vrai bluffantes. La gen 3 conso encore doublée pour perf doublées, avec alim externe en prime. Et après gen 4-5 toujours dans le même esprit : architecture en limite<br /> Quand on voit ça et l’echec du rachat d’ARM par NVIDIA… on se pose des question sur l’évolution de leur architecture, après 20 ans des belles cartes. Surtout quand apple sort en parallèle des cartes ARM certes avec des perfs pas équivalentes, mais une conso si faible. Rapport perf/conso… y’a pas photo<br /> Nvidia en 202x = 3DFX 200x? pas la même taille d’entreprise : ça fera plus mal
Blackalf
ypapanoel:<br /> après 20 ans des belles cartes.<br /> Il faut quand même le dire vite, parce qu’il y a à peine plus de 10 ans, la génération HD 58xx de AMD faisait mieux que les Nvidia GTX 4xx. Moins chère, consommant moins, chauffant moins, et aussi performante. ^^
ypapanoel
Pas tout à fait mon propos : je ne comparais pas à ATI/AMD qui ont aussi certains bons lots de cartes (j’ai d’ailleurs eu une 7800 pendant pas mal d’années, choisie justement parce que c’était du bon matériel)<br /> Ce que je voulais dire c’est que NVIDIA est considéré comme un des gros du GPU depuis la fin 90 et que là on les voit en perdition avec des architectures hors sol, et une tentative de rachat d’ARM : preuve qu’ils avaient aussi dû flairer que le filon était là, quel que soit le prix.<br /> Pas les seuls à l’avoir senti puisque la tentative a été plantée par les britanniques.<br /> Et pendant ce temps Apple utilise cette techno pour sortir des rapports perf/conso excellents.<br /> A voir dans 3-4 ans ce que ça donne… mais on risque de voir des évolutions très nettes dans le domaine du GPU. Et peut être un nouveau « 3DFX/Nokia/Blackberry »
philumax
C’est une nouvelle série Netflix ?<br /> Sans publicité ?
DrCarter95
Faudrait leur imposer un malus écologique histoire qu’ils bossent un peu plus et qu’ils arrêtent de produire ce genre de ruines écologiques et économiques.
Delta243
Les cartes graphiques nvidia sont aussi des bijoux de technologie.<br /> Et y’a toujours plus de composants la taille des puces augmentent les Cuda core vont presque doubler.<br /> Forcément la consommation augmente, y’a rien de choquants là dedans c’est juste de la logique.<br /> Après ces cartes sont une minorité sur le marché.
Voir tous les messages sur le forum
Haut de page

Sur le même sujet