GeForce RTX 4090 : limite de puissance ou sous-voltage, la conso s'effondre, les perfs baissent de 8%

Nerces
Par Nerces, Spécialiste PC & Gaming.
Publié le 30 novembre 2022 à 09h35
© Nerces
© Nerces

Deux techniques pour réduire drastiquement la consommation de la RTX 4090 de NVIDIA sans trop perdre en performances.

Disponible depuis le 12 octobre dernier, la GeForce RTX 4090 est la nouvelle vitrine technologique de NVIDIA. Une vitrine performante, la question n'est pas là, mais dont la consommation atteint de nouveaux sommets.

Une efficacité, de base, déjà remarquable…

Au moment du test de la carte Founders Edition, nous avons effectivement relevé des pointes à plus de 430 Watts ce qui constitue un nouveau record pour une carte graphique à destination des particuliers.

Extrait de notre test de la GeForce RTX 4090 © Nerces
Extrait de notre test de la GeForce RTX 4090 © Nerces

Bien sûr, la RTX 4090 ne se montre pas toujours aussi gourmande. Ainsi, dans la majorité des jeux vidéo que nous avons utilisés au cours de notre test, la consommation s'établit plutôt autour de 370, voire 380 Watts.

De fait, malgré un nouveau record en la matière, la RTX 4090 est une carte qui se montre efficace dans sa gestion de l'énergie. Son indice de performances par Watt est le meilleur que nous ayons jamais observé. Il existe toutefois des moyens de réduire cette consommation sans trop grever les performances.

© Videocardz

… encore largement améliorée via deux méthodes

Dès la fin de l'embargo entourant les tests, certains avaient effectivement relevé qu'en réduisant la limite de puissance de la carte graphique – via des logiciels comme le MSI Afterburner par exemple – la baisse de consommation n'entraînait qu'une faible réduction des performances.

Très simple à mettre en place, cette technique est dépassée par une autre habitude de certains utilisateurs expérimentés : le sous-voltage de la carte graphique. La chose est plus délicate à mettre en œuvre, mais comme nous le précise VideoCardz, les résultats sont plus impressionnants encore.

© Videocardz

L'un dans l'autre, retenons qu'il est possible d'abaisser le TDP de la GeForce RTX 4090 de moitié en ne perdant que 8 % des performances. La preuve que, décidément, l'efficacité du GPU n'est pas en question.

Source : VideoCardz

Par Nerces
Spécialiste PC & Gaming

Tombé dans le jeu vidéo à une époque où il fallait une belle imagination pour voir ici un match de foot, là un combat de tanks dans ces quelques barres représentées à l'écran, j'ai suivi toutes les évolutions depuis quarante ans. Fidèle du PC, mais adepte de tous les genres, je n'ai du mal qu'avec les JRPG. Sinon, de la stratégie tour par tour la plus aride au FPS le plus spectaculaire en passant par les simulations sportives ou les jeux musicaux, je me fais à tout... avec une préférence pour la gestion et les jeux combinant plusieurs styles. Mon panthéon du jeu vidéo se composerait de trois séries : Elite, Civilization et Max Payne.

Vous êtes un utilisateur de Google Actualités ou de WhatsApp ?
Suivez-nous pour ne rien rater de l'actu tech !
Commentaires (0)
Rejoignez la communauté Clubic
Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.
Commentaires (10)
pecore

Quant on paye 2000€ à 2500€ sa carte graphique :roll_eyes:, il est peu probable que se soit pour brider ses performances à l’arrivée, même de ±10%.

gf4

Tu peux toujours remettre la consommation maximale le jour où elle montre ses limites.

TNZ

Franchement, qui va aller surveiller sa conso électrique quand il aura cramé 2500 balles dans la CG … et avoir changé l’alimentation du PC pour une Gold-99-qui-fait-le-café à prix d’or ?

philouze

ce qui est curieux, c’est qu’habituellement en électricité, plus de tension = moins de pertes joules pour la même intensité de service.
là on à à peu près la même intensité et efficacité pour moins d’effet joule malgré baisse de voltage.

TNZ

Sujet de réflexion sur les alimentations électriques : Pourquoi, dans les datacenters, les blocs d’alimentation ne sont ils pas externalisés des bare-metal ?

(pour moi, c’est rhétorique)

SPH

" la consommation s’établit plutôt autour de 370, voire 380 Watts"
… c’est toujours 100 à 200 Watts de trop … :disappointed_relieved:

Daeneroc

Merci Clubic de remettre les points sur les i.

En effet la 4090 est une excellente carte avec un excellent rapport performance/prix et un excellent rapport performance/consommation.

Les chiffres sont là, n’en déplaisent à tous ceux qui ralent contre un produit pour la simple raison qu’ils sont jaloux de ne pas pouvoir se le payer.

yoda_net

« ils sont jaloux de ne pas pouvoir se le payer »
il y a pouvoir et vouloir. Je cherche plus le bon rapport performance / prix / utilisation que le max perf pour max prix qui sera aussi vite dépassé par une autre CG encore plus puissante pour encore plus cher. Ma 3060 fait tourner tout ce qu’il me faut en réglage max sur du full HD, donc une 4090 ne serait pas un excellent rapport performance / prix pour mon utilisation

cpicchio

Cela montre bien que l’on est dans l’irrationnel : pour avoir le ‘King of the Hill’ et gagner qq pourcents (qui ne se verront pas à l’usage), on arrive pratiquement à doubler la consommation. Approche lamentable des constructeurs (concerne aussi les CPU) avec cette course stupide qui amènera des PC qui consommeront plus que des serveurs dans un datacenter.

sylvio50

D’un point de vue du TDP vs fréquence => rien d’étonnant.

Si je prends la source, on a bien, à stabilité constante :

fréquences TDP Mesuré TDP Calculé
Battlegrounds 2,85 402
2,46 288 299,5
Lostark 2,85 293
2,46 215 218,3
Forza Horizon 5 2,85 275
2,46 193 204,9
Spider-Man 2,85 293
2,46 212 218,3
CyberPunk 2,85 353
2,46 253 263

TDP(f1) environ= TDP(f2) * (f1/f2)²

Exemple : 402 * (2,46/2,85)² environ= 299 W pour 288 W mesuré.

Les fabricant de GPU connaissent cette loi du TDP vs fréquence, elle est utilisé sur les GPU mobile.

Moi-même, je l’utilise pour prédire les perfs des GPU Mobile :

Concernant les performances, il faut voir soit du coté de la bande passante mémoire graphique, soit du CPU qui limite les performances. On a un phénomène de compression des performances. Ca sera la même chose sur les RX 7900.

Il faudrait tester la mémoire graphique à la baisse pour voir si les perfs s’écroulent ou non. Si c’est le cas, ça veux dire que ces cartes sont limitées par la mémoire graphique (bus et fréquence vram). Idem pour le CPU.

Comme 3DMark Time Spy Extreme ne limite pas beaucoup au niveau du CPU, la chute de perf sera plus grande (au lieu d’avoir 8% de perte, on aura 15% ou plus).