GeForce RTX 4090 : limite de puissance ou sous-voltage, la conso s'effondre, les perfs baissent de 8%

Nerces
Spécialiste Hardware et Gaming
30 novembre 2022 à 09h35
21
© Nerces
© Nerces

Deux techniques pour réduire drastiquement la consommation de la RTX 4090 de NVIDIA sans trop perdre en performances.

Disponible depuis le 12 octobre dernier, la GeForce RTX 4090 est la nouvelle vitrine technologique de NVIDIA. Une vitrine performante, la question n'est pas là, mais dont la consommation atteint de nouveaux sommets.

Une efficacité, de base, déjà remarquable…

Au moment du test de la carte Founders Edition, nous avons effectivement relevé des pointes à plus de 430 Watts ce qui constitue un nouveau record pour une carte graphique à destination des particuliers.

Extrait de notre test de la GeForce RTX 4090 © Nerces
Extrait de notre test de la GeForce RTX 4090 © Nerces

Bien sûr, la RTX 4090 ne se montre pas toujours aussi gourmande. Ainsi, dans la majorité des jeux vidéo que nous avons utilisés au cours de notre test, la consommation s'établit plutôt autour de 370, voire 380 Watts.

De fait, malgré un nouveau record en la matière, la RTX 4090 est une carte qui se montre efficace dans sa gestion de l'énergie. Son indice de performances par Watt est le meilleur que nous ayons jamais observé. Il existe toutefois des moyens de réduire cette consommation sans trop grever les performances.

GeForce RTX 4090 limiter la conso © Videocardz
GeForce RTX 4090 limiter la conso © Videocardz

© Videocardz

… encore largement améliorée via deux méthodes

Dès la fin de l'embargo entourant les tests, certains avaient effectivement relevé qu'en réduisant la limite de puissance de la carte graphique – via des logiciels comme le MSI Afterburner par exemple – la baisse de consommation n'entraînait qu'une faible réduction des performances.

Très simple à mettre en place, cette technique est dépassée par une autre habitude de certains utilisateurs expérimentés : le sous-voltage de la carte graphique. La chose est plus délicate à mettre en œuvre, mais comme nous le précise VideoCardz, les résultats sont plus impressionnants encore.

© Videocardz
© Videocardz

L'un dans l'autre, retenons qu'il est possible d'abaisser le TDP de la GeForce RTX 4090 de moitié en ne perdant que 8 % des performances. La preuve que, décidément, l'efficacité du GPU n'est pas en question.

Source : VideoCardz

Nerces

Spécialiste Hardware et Gaming

Spécialiste Hardware et Gaming

Tombé dans le jeu vidéo à une époque où il fallait une belle imagination pour voir ici un match de foot, là un combat de tanks dans ces quelques barres représentées à l'écran, j'ai suivi toutes les év...

Lire d'autres articles

Tombé dans le jeu vidéo à une époque où il fallait une belle imagination pour voir ici un match de foot, là un combat de tanks dans ces quelques barres représentées à l'écran, j'ai suivi toutes les évolutions depuis quarante ans. Fidèle du PC, mais adepte de tous les genres, je n'ai du mal qu'avec les JRPG. Sinon, de la stratégie tour par tour la plus aride au FPS le plus spectaculaire en passant par les simulations sportives ou les jeux musicaux, je me fais à tout... avec une préférence pour la gestion et les jeux combinant plusieurs styles. Mon panthéon du jeu vidéo se composerait de trois séries : Elite, Civilization et Max Payne.

Lire d'autres articles
Vous êtes un utilisateur de Google Actualités ou de WhatsApp ? Suivez-nous pour ne rien rater de l'actu tech !
google-news

A découvrir en vidéo

Rejoignez la communauté Clubic S'inscrire

Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.

S'inscrire

Commentaires (21)

pecore
Quant on paye 2000€ à 2500€ sa carte graphique , il est peu probable que se soit pour brider ses performances à l’arrivée, même de ±10%.
gf4
Tu peux toujours remettre la consommation maximale le jour où elle montre ses limites.
TNZ
Franchement, qui va aller surveiller sa conso électrique quand il aura cramé 2500 balles dans la CG … et avoir changé l’alimentation du PC pour une Gold-99-qui-fait-le-café à prix d’or ?
philouze
ce qui est curieux, c’est qu’habituellement en électricité, plus de tension = moins de pertes joules pour la même intensité de service.<br /> là on à à peu près la même intensité et efficacité pour moins d’effet joule malgré baisse de voltage.
TNZ
Sujet de réflexion sur les alimentations électriques : Pourquoi, dans les datacenters, les blocs d’alimentation ne sont ils pas externalisés des bare-metal ?<br /> (pour moi, c’est rhétorique)
SPH
" la consommation s’établit plutôt autour de 370, voire 380 Watts"<br /> … c’est toujours 100 à 200 Watts de trop …
Daeneroc
Merci Clubic de remettre les points sur les i.<br /> En effet la 4090 est une excellente carte avec un excellent rapport performance/prix et un excellent rapport performance/consommation.<br /> Les chiffres sont là, n’en déplaisent à tous ceux qui ralent contre un produit pour la simple raison qu’ils sont jaloux de ne pas pouvoir se le payer.
yoda_net
« ils sont jaloux de ne pas pouvoir se le payer »<br /> il y a pouvoir et vouloir. Je cherche plus le bon rapport performance / prix / utilisation que le max perf pour max prix qui sera aussi vite dépassé par une autre CG encore plus puissante pour encore plus cher. Ma 3060 fait tourner tout ce qu’il me faut en réglage max sur du full HD, donc une 4090 ne serait pas un excellent rapport performance / prix pour mon utilisation
cpicchio
Cela montre bien que l’on est dans l’irrationnel : pour avoir le ‘King of the Hill’ et gagner qq pourcents (qui ne se verront pas à l’usage), on arrive pratiquement à doubler la consommation. Approche lamentable des constructeurs (concerne aussi les CPU) avec cette course stupide qui amènera des PC qui consommeront plus que des serveurs dans un datacenter.
sylvio50
D’un point de vue du TDP vs fréquence =&gt; rien d’étonnant.<br /> Si je prends la source, on a bien, à stabilité constante :<br /> fréquences<br /> TDP Mesuré<br /> TDP Calculé<br /> Battlegrounds<br /> 2,85<br /> 402<br /> 2,46<br /> 288<br /> 299,5<br /> Lostark<br /> 2,85<br /> 293<br /> 2,46<br /> 215<br /> 218,3<br /> Forza Horizon 5<br /> 2,85<br /> 275<br /> 2,46<br /> 193<br /> 204,9<br /> Spider-Man<br /> 2,85<br /> 293<br /> 2,46<br /> 212<br /> 218,3<br /> CyberPunk<br /> 2,85<br /> 353<br /> 2,46<br /> 253<br /> 263<br /> TDP(f1) environ= TDP(f2) * (f1/f2)²<br /> Exemple : 402 * (2,46/2,85)² environ= 299 W pour 288 W mesuré.<br /> Les fabricant de GPU connaissent cette loi du TDP vs fréquence, elle est utilisé sur les GPU mobile.<br /> Moi-même, je l’utilise pour prédire les perfs des GPU Mobile :<br /> TDP vs Perf3357×2193 901 KB<br /> Concernant les performances, il faut voir soit du coté de la bande passante mémoire graphique, soit du CPU qui limite les performances. On a un phénomène de compression des performances. Ca sera la même chose sur les RX 7900.<br /> Il faudrait tester la mémoire graphique à la baisse pour voir si les perfs s’écroulent ou non. Si c’est le cas, ça veux dire que ces cartes sont limitées par la mémoire graphique (bus et fréquence vram). Idem pour le CPU.<br /> Comme 3DMark Time Spy Extreme ne limite pas beaucoup au niveau du CPU, la chute de perf sera plus grande (au lieu d’avoir 8% de perte, on aura 15% ou plus).
_Reg24
La carte consommera que ce qu’il faut pour fonctionner, elle sera à fond sur CP2077, mais sur des jeux moins gourmand, ça peut facilement descendre à 250 voir 100W.<br /> Le constat est le même pour le minage de crypto, on a une bien meilleur efficience à 225W de conso qu’à 450.
bennj
« pour la simple raison qu’ils sont jaloux de ne pas pouvoir se le payer. »<br /> toujours ce même argument ridicule des que tu critiques quelque chose alors c’est parce que tu es jaloux de la personne, ou du produit. Si les gens critiquent la génération 40 de Nvidia c’est tout simplement car ils ont doublé le prix de leurs produits juste pour augmenter leur marge sans autre justification. Ses même personnes (dont moi) pourraient se payer une 4080/4090 mais décident de ne pas le faire. De mon côté c’est simplement car je trouve ça sidérant de donner raison à Nvidia qui décide de doubler le prix de ses cartes sans aucune raison valable alors que la concurrence elle ne bouge pas ses prix.<br /> Mais bon je dis ca sûrement car je suis jaloux… L’argument de ceux qui n’ont pas d’augments.
gf4
Demain la baguette de pain passe à 5€, mais pourquoi pas, que ceux qui peuvent se la payer se l’achètent et les autres tant pis.<br /> C’est sans limite si on prend cette voie.
Blackalf
« jaloux de ne pas pouvoir se le payer »<br /> Ce genre d’argument en dit surtout long sur ceux qui l’utilisent, parce qu’il fait fortement penser que ceux qui achètent quelque chose que d’autres trouvent trop cher en sont très fiers et s’imaginent être forcément jalousés et enviés<br /> Et ça, c’est typique de ceux qui veulent avant tout paraître, et ces gens-là ne sont satisfaits de ce qu’ils ont que tant que d’autres les admirent et les envient…et lorsque ce n’est plus le cas, il n’y a plus de satisfaction et il leur faut alors trouver autre chose pour à nouveau susciter l’admiration et l’envie sans lesquelles ils ne peuvent pas se sentir bien.
LeChien
J’ai regardé par quoi je pourrais remplacer ma 750ti sur mon htpc intel gen4 avec lequel je joue aussi parfois.<br /> La beta diablo4 tournait de façon très correcte mais la limite de faisait sentir (plutôt pas mal pour une plateforme désuète).<br /> J’en arrive à la conclusion qu’une 2060 d’occasion serait parfaite.<br /> Dans 20 ans j’essayerai peut-être une gen 40 !
pecore
Donc tous les créateurs de contenus qui ont tous une et voire plusieurs RTX 4090 et qui disent qu’elle est trop chère, qu’elle consomme trop, qu’elle est trop grosse, qu’elle crame et surtout que c’est du gaspillage pour du gaming car elle va être bottleneck par le CPU, toutes ces personnes seraient des… jaloux ?
Popoulo
Bizarre car les personnes qui l’utilisent dans le domaine de la 3D en sont plus que contents.<br /> Quand tu mets « à peine » 15h de calcul pour le rendering de 4’300 frames pour une anim sous Blender par rapport à une Quadro RTX A6000 qui met 10h de plus, ils en sont très loin de se plaindre. Sans parler du confort apporté dans les viewports et pour autre denoising.<br /> De plus, elle reste sous pas mal de moteurs de rendus 3D 2x plus rapide qu’un sli de 3090 (Octane, Vray etc.).<br /> Donc pour ces gens là, elle n’est ni trop grosse, ni trop chère, conso osef, qu’elle crame quand les gens ne savent pas connecter une broche (facile je sais), osef bis.<br /> Quant au gaming, tu as tout à fait raison. C’est du gaspillage. Mais si certains ont les moyens, ils ont bien raison de se faire plaisir.
pecore
Sauf qu’encore une fois oui, mais non.<br /> Non au mélange des cartes pros et des cartes gaming qui brouille les messages et les esprits et incitent les personnes manipulables à faire des dépenses inutiles.<br /> Non à la banalisation des prix excessifs qui font que les personnes au budget simplement normal, n’ont le choix qu’entre du matériel déjà dépassé mais toujours cher et du matériel récent mais hors de prix.<br /> Encourager cela ne peut qu’être dommageable pour tout le monde. Déjà Nvidia montre qu’il prend les clients pour des vaches à laits chaque jour un peu plus, le dernier en date étant la sortie de la RTX 3060 8Go. Imagine que, de guerre lasse, AMD jette l’éponge et que Nvidia reste libre de pratiquer les prix qu’il veut. Nous serons tous perdant, y compris les pro-Nvidia et comme souvent, nous l’aurons bien cherché.
Chevron7
Bah perso j’ai le neo G8 donc 4k 32 pouces 240hz. Donc perso j’ai j’en ai l’utilité.<br /> Tu pourrais te permettre de prendre un 1440p que ta carte ferait le job avec le DLSS.
Voir tous les messages sur le forum
Haut de page

Sur le même sujet