AMD évoque le défi de la consommation énergétique des cartes graphiques

Nerces
Spécialiste Hardware et Gaming
14 juillet 2022 à 19h18
28
© AMD
© AMD

À chaque génération de cartes graphiques, la puissance s'envole, mais la consommation également. Que nous réserve l'avenir ?

Alors que l'on parle beaucoup de sobriété énergétique et que la situation climatique est plus que préoccupante, le monde du CPU/GPU semble vivre sur une autre planète. Prêchant pour sa paroisse, Sam Naffziger, responsable architecture chez AMD, revient sur les progrès enregistrés par sa société en la matière et nous laisse entrevoir les évolutions futures.

Des objectifs largement atteints

Logiquement, il revient en premier lieu sur l'ambitieux objectif que s'était fixé AMD en 2014, le « 25 x 20 ». Il s'agissait alors d'atteindre une efficacité énergétique 25 fois supérieure sur les CPU et GPU à l'horizon 2020.

AMD précise que cet objectif a été dépassé – il avance un facteur de plus de 30 en l'espace de 6 ans – et qu'aujourd'hui, la société part sur une ambition nouvelle, le « 30 x 25 ». Vous l'aurez compris, une efficacité énergétique encore 30 fois supérieure d'ici à 2025.

© AMD
© AMD

Il est toutefois important de souligner que ce but ne concerne pas les GPU grand public. AMD se focalise ici sur l'apprentissage automatique, l'intelligence artificielle et les centres de données au travers de ses processeurs EPYC et de ses accélérateurs Instinct.

Pas loin de 700 W en 2025 ?

La recherche de l'efficacité n'est évidemment pas abandonnée en ce qui concerne « nos » GPU. Ainsi, Sam Naffziger explique que RDNA 3 devrait améliorer la performance par Watt de RDNA 2 d'environ 50 %. Pour autant, le moteur reste la puissance, comme il le précisait il y a peu :

« La performance est reine. Ainsi, même si notre architecture est plus économe en énergie, cela ne signifie pas qu'il ne faut pas augmenter les niveaux de puissance si la concurrence fait la même chose. C'est juste qu'ils devront les pousser beaucoup plus haut que nous. »

De fait, si l'on en croit le graphique présenté par AMD, et malgré tous les progrès réalisés pour améliorer l'efficacité énergétique des GPU, on pourrait se retrouver avec un RDNA 4 ou 5 à 700 W d'ici 2025 !

Source : Venture Beat

Nerces

Spécialiste Hardware et Gaming

Spécialiste Hardware et Gaming

Tombé dans le jeu vidéo à une époque où il fallait une belle imagination pour voir ici un match de foot, là un combat de tanks dans ces quelques barres représentées à l'écran, j'ai suivi toutes les év...

Lire d'autres articles

Tombé dans le jeu vidéo à une époque où il fallait une belle imagination pour voir ici un match de foot, là un combat de tanks dans ces quelques barres représentées à l'écran, j'ai suivi toutes les évolutions depuis quarante ans. Fidèle du PC, mais adepte de tous les genres, je n'ai du mal qu'avec les JRPG. Sinon, de la stratégie tour par tour la plus aride au FPS le plus spectaculaire en passant par les simulations sportives ou les jeux musicaux, je me fais à tout... avec une préférence pour la gestion et les jeux combinant plusieurs styles. Mon panthéon du jeu vidéo se composerait de trois séries : Elite, Civilization et Max Payne.

Lire d'autres articles
Vous êtes un utilisateur de Google Actualités ou de WhatsApp ? Suivez-nous pour ne rien rater de l'actu tech !
google-news

A découvrir en vidéo

Rejoignez la communauté Clubic S'inscrire

Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.

S'inscrire

Commentaires (28)

phil995511
AMD est à côté de la plaque avec leurs 700 Watts pour 2025, personne ne voudra d’une carte graphique qui fasse un bruit de sèche-cheveux pour être refroidie !!
Bombing_Basta
Énergie et ressources sont infinies alors tout va pour le mieux.
pecore
Ce n’est qu’une projection et qui ne concerne certainement que le flagship de la série. Comme tu le dis personne ne voudra d’une carte graphique impossible à refroidir sauf quelques enthousiastes/frimeurs ou des pros prêts à mettre le prix dans un refroidissement de compétition et ça AMD doit bien le savoir.
kisama56
Raisonnement complètement débile, une 6700 met à la rue une PS5/Xbox X<br /> Donc ils peuvent largement se concentrer sur la consommation.
stratos
Ou alors optimiser les jeux des systèmes comme le FSR pour tous les jeux, bref, il y a des jeux pas terribles qui demandent bien plus qu’un crysis 1.<br /> Plus le matos est puissants plus ca pompe de ressources certains jeux ou soft, on n’optimise pas car il y a de la puissance dans les PC des gens de toute manière.
kyosho62
Et encore ils indiquent juste le TDP, c’est pas le TGP qui lui est encore plus monstrueux
sylvio50
Ca ne marche pas comme ça.<br /> Un petit GPU de 100 W peut très bien chauffer plus qu’un gros GPU de 500 W. Ce qui compte, c’est la capacité à dissiper, ainsi que le ratio surface / TDP.<br /> Sur une carte graphique de bureau, on peut compter une limite de 0,9 W / mm² pour un refroidissement conventionnel.<br /> Exemple :<br /> (2009) NVIDIA GeForce GTS 250 : 150 W / 260 mm² = 0,58 W / mm²<br /> (2012) NVIDIA GeForce GTX 680 : 195 W / 294 mm² = 0,66 W / mm²<br /> GTX 1050 Ti : 75 W / 132 mm² = 0,57 W / mm²<br /> RTX 3070Ti : 290 W / 392 mm² = 0,74 W / mm²<br /> (2022) RTX 3090Ti : 450 W / 628 mm² = 0,72 W / mm²<br /> (2012) AMD Radeon HD 7770 : 80 W / 123 mm² = 0,65 W / mm²<br /> AMD Radeon HD 7970 : 250 W / 352 mm² = 0,71 W / mm²<br /> AMD Radeon RX 580 : 185 W / 232 mm² = 0,8 W / mm²<br /> (2019) AMD Radeon RX 5700 XT : 225 W / 251 mm² = 0,9 W /mm²<br /> (2022) AMD Radeon RX 6950 XT = 335 W / 520 mm² = 0,64 W / mm²<br /> La RX 5700 XT (d’origine) de 225 W fait plus de bruit que la RTX 3090Ti FE de 450 W par exemple.<br /> Sinon, dans le futur, ça pourrai hypothétiquement donner jusqu’à 700 W pour un GPU de 800 mm² (genre un chiplet de 4 x 200 mm²).
bmustang
pollueur payeur, le fabricant et le propriétaire
sylvio50
C’est une bonne idée en apparence, sauf un GPU qui permet de faire 50 fois plus de calcul dans un même temps imparti qu’un autre mais qui consommerai 10 fois plus serait quand même 5 fois plus efficace puisqu’il consommerai 5 fois moins d’énergie pour faire le même calcul. Donc, le GPU a « faible consommation apparente » nuirait plus à la société que le GPU à « forte consommation apparente ». Pourquoi moins le taxer alors ?
SPH
Vivement les CG optiques !
MattS32
Sauf que là tu ne tiens compte que de l’échange thermique entre le GPU et son radiateur.<br /> Le niveau de bruit, il dépend lui de l’échange thermique entre l’air et le radiateur. Et là y a pas de miracle, si on double la quantité d’énergie à dissiper au niveau du radiateur, soit on augmente drastiquement la taille du radiateur (mais on est déjà à des tailles énormes pour les radiateurs de cartes graphiques actuelles), soit on augmente la vitesse de l’air dans le radiateur, et ça ça se fait difficilement sans augmenter le bruit…
lightness
utiliser et maîtriser en masse le voxel plutôt que le pixel couplé au Ray tracing, moins de mémoire moins de puissance moins de chauffe moins de consommation plus de stabilité. c’est le processeur qui travaille plus mais la chauffe est bien mieux maîtrisé que sur les cg. et oui aux dev de mieux maîtriser leur environnement. quand on voit ruby sur les anciennes démo technologiques d’amd fourni par rhinofx il y a 10 ans qui maitrise bien mieux la qualité graphique que dans certains jeux d’aujourd’hui. (merci far cry 6 par exemple)
Bombing_Basta
Y’a juste à regarder Horizon Forbidden West pour comprendre qu’il n’y a pas besoin d’engloutir 700w pour avoir une « config » avec laquelle se faire plaisir autant au niveau des yeux que du jeu.<br /> Mais bon, actuellement c’est encore et toujours à qui a la plus grosse pour au final une optimisation dégueulasse et un gâchis monstrueux.
info01
Troll à moitier activé:<br /> Apple a réussi à faire des chips M1 et M2 qui mette à la rue toutes les autres CG en terme de perfs pour une consommation très inférieure.<br /> Donc aux ingénieurs de chez AMD et nVidia d’arriver à faire pareil
Shinpachi
L’efficacité énergétique, c’est une excuse bidon qui peut aussi servir à justifier une carte graphique 2000 Watts en 2035
stratos
oui et non car ce n’est pas avoir les 60 ou 90 premiers FPS qui pompent mais les derniers c’est comme un OC on va gagner 9% dans certains cas pour une conso 2 a 3 fois superieur.<br /> et le M1 ou M2 reste inférieur en puissance a des rtx 3000 de laptop qui sont plus économe que les desktop.<br /> Ce qui m’afflige c’est qu’il y a 10ans avec un vieux laptop de 13ans j’avais firefox zen sur mon pc je pouvais bosser, maintenant il galère juste à ouvrir firefox, je sais bien qu’on a rajouté des technos, mais on a des choses tellement lourdes maintenant avec énormément de choses qui ne sont pas utiles<br /> Comme pour les soft audio, les versions crack demande moins de puissance que les versions légale, car elles n’ont pas les systèmes anti crack. Bref, on optimise plus les choses.
Popoulo
@info01 : Quand je vois qu’une 3060 met 16mn pour le rendering d’une scène sous Blender et qu’un Mac Pro M1 Max 32GB met +60mn, j’ai presque envie de d’ouvrir une cagnotte.<br /> (Source : techgage)
philouze
Petit calculs de coins de table, à confirmer :<br /> pour un joueur jouant une moyenne de 4H par jour absolument tous les jours :<br /> 700430 = 84 kWh /mois<br /> soit … 560 kms en voiture électrique<br /> et plus de 100 bornes en thermique<br /> Au final, s’enfermer dans un monde virtuel avec ce genre de matos (et je n’ai pas compté la conso du proc) est plus consommateur d’énergie primaire que de prendre une caisse pour aller loin.<br /> C’est un des rares cas où c’est le cas !<br /> Nous devrions influer sur les constructeurs pour réclamer moins de conso pour ces devices, ou effectivement imposer un « capping » thermique.
sylvio50
sylvio50:<br /> Ce qui compte, c’est la (1) capacité à dissiper, ainsi que le (2) ratio surface / TDP.<br /> (1) : Mais ce n’est pas ce qui compte en premier.<br /> C’est ce qui explique l’écart de puissance entre par exemple la AMD Radeon HD 7770 GE de 80 W et la RTX 3090Ti FE de 450 W.<br /> Tu ne pourra pas avoir un GPU de 120 mm² qui dissipe 450 W avec un air-cooling classique. Ca ne s’est pas encore vu jusqu’à présent.<br /> La AMD Radeon HD 7770 GE, tu peut l’overclocker de 20% pour arriver à 110 ou 120 W, mais pas plus, même si tu change de radiateur en prenant le tout meilleur (genre triple slot avec 3 ventilos), tu arrivera à beaucoup moins de 40% pour atteindre péniblement 150 W.
sylvio50
MattS32:<br /> Le niveau de bruit, il dépend lui de l’échange thermique entre l’air et le radiateur.<br /> Normalement, le ventilateur tourne en fonction de la T°C du processeur, pas en fonction de la T°C de l’air au niveau du radiateur.
MattS32
Oui, mais avec un même radiateur, pour atteindre la même température GPU avec une consommation plus élevée il faut augmenter le flux d’air. Donc avec un GPU qui consomme plus, si on n’augmente pas la taille du radiateur, il faut adapter le contrôle de la vitesse des ventilateurs pour ventiler plus à une même température (sinon la température sera inévitablement plus élevée).
sylvio50
Je ne m’y connais pas incroyablement en thermique, mais je pense que justement, on peut presque parler de gradient thermique en fonction de la surface du processeur.<br /> Plus ton processeur à une grande surface, plus la T°C est basse au niveau de l’interface processeur/radiateur. Plus la différence de T°C entre l’air et l’interface processeur/radiateur sera semblable. (genre 60°C interface, 40°C air, pour un même radiateur et même débit d’air à TDP constant).<br /> Plus ton processeur à une petite surface, plus la T°C est haute au niveau de l’interface processeur/radiateur. Plus la différence de T°C entre l’air et l’interface processeur/radiateur sera grande. (genre 90°C interface, 40°C air, pour un même radiateur et même débit d’air à TDP constant).<br /> Je ne sais pas trop si on peux parler de goulot d’étranglement thermique au niveau de l’interface.
MattS32
Il peut y avoir un goulot d’étranglement au niveau de l’interface entre le GPU et le radiateur.<br /> Mais la capacité d’évacuation de chaleur du radiateur n’en est pas moins essentielle : le « débit » de chaleur au niveau de l’interface GPU/radiateur est directement proportionnel à l’écart de température entre le GPU et le radiateur.<br /> Si le radiateur monte en température parce qu’il ne parvient pas à évacuer la chaleur qu’il reçoit du GPU, ça réduit le débit de chaleur entre le GPU et le radiateur. Et donc il faut que la température du GPU augmente pour que le débit remonte (il doit être égal à la consommation du GPU).<br /> Si tu augmentes la consommation du GPU, il ne suffit donc pas d’augmenter la capacité de l’interface entre le GPU et le radiateur, il faut aussi augmenter la capacité du radiateur à dissiper la chaleur qu’il reçoit du GPU.<br /> Et ça, ça ne peut se faire que de deux façons (hors changement radical de technologie) : augmenter la surface du radiateur ou augmenter le flux d’air.<br /> Vue la taille des radiateurs actuels, pour passer de 450W à 700W il y a peu de marge de manœuvre sur la taille du radiateur (ça donnerait des cartes incompatibles avec un grand nombre de boîtiers), donc il faudra jouer sur le flux d’air. Et donc le bruit.
Yorgmald
Enfaite mise à part l’augmentation de la résolution d’écran et du refresh rate, les jeux n’avancent plus.<br /> On nous parlait du multi core pour l’IA, la physique, et pleins d’autre trucs, et au final c’est toujours pareil voir même pire.<br /> Sans parler que les jeux deviennent de plus en plus creux.<br /> Je ne parle que de quelques points, du coup je me demande de l’utilité de sortir ce genre de produit niveau conso pour avoir toujours la même chose qui va peut être enfin tourner en 4k120 mais qui sera toujours pauvre sur plein de promesses et qui pourrait faire du 4k120 si il y avait de l’optimisation réelle.<br /> Je parle pour le domaine grand publique.
sylvio50
Je n’ai pas le temps de chercher, mais il faudrait trouver des tests de watercooling sur Intel Atom 26 mm² pour bien montrer le lien entre surface de die et T°C. Je n’ai réussi qu’à trouver un test avec azote liquide où le CPU est à 4°C (ce qui est énorme d’ailleurs compte tenu de la T°C de l’azote liquide normalement) (Intel Atom N270 Overclocked to 2385MHz, Probably the Fastest Atom Ever | TechPowerUp) alors que le TDP semble être extrêmement faible compte tenu de la fréquence atteinte.<br /> MattS32:<br /> le « débit » de chaleur au niveau de l’interface GPU/radiateur est directement proportionnel à l’écart de température entre le GPU et le radiateur.<br /> Ca, je ne sais pas justement.<br /> Pour reprendre l’exemple de l’Intel Atom de 26 mm², il ne suffit pas d’avoir un très bon air-cooling pour dissiper ne serait-ce que 100 W.<br /> De plus, 75°C réparti sur 100 mm², c’est moins d’énergie que 75°C réparti sur 400 mm².<br /> Si il te faut 100 W pour atteindre 75°C sur une surface de 100 mm², il est probable que pour atteindre la même T°C sur une surface de 400 mm², il te faille 400 W de puissance (dans la pratique, ça sera probablement moins).<br /> La T°C ne rend pas compte de l’énergie. Tu peux prendre l’exemple d’une bougie ou d’un briquet tempête où la T°C de la flamme atteint probablement (j’ai pas cherché) plus de 1000°C mais l’énergie thermique totale reste faible car cette T°C n’est atteinte que sur une minuscule surface.<br /> @+<br /> Nota : Ici, un test de watercooling/overclocking d’un Core i5 3570K 160 mm² 77 W @ 3,4 Ghz origine vers 5 Ghz (probablement environ 165 W = 77 x (5/3,4)²), soit environ 1 W / mm² @ 75°C.<br /> Observe les T°C, sachant que 165 W, c’est peu, et on est en watercooling.<br /> Par exemple, le watercooling ROG Strix LC monté sur la RTX 3090Ti 628 mm² permet d’atteindre 500 W @ environ 60°C.<br /> https://www.techpowerup.com/review/asus-geforce-rtx-3090-ti-strix-lc/36.html<br /> https://www.techpowerup.com/review/asus-geforce-rtx-3090-ti-strix-lc/37.html
MattS32
sylvio50:<br /> Ca, je ne sais pas justement.<br /> C’est le cas. C’est une règle de thermodynamique. Le flux thermique a une interface entre deux objets de température différentes, c’est W=C * dK * S avec C une constante dépendant des matériaux, dK la différence de température entre les deux objets et S la surface de contact.<br /> C’est cette formule qui explique d’ailleurs la raison d’être du radiateur. Avec une interface air/métal, C est faible. Il faut donc un S élevé. Comme le S d’une puce est faible, on ajoute dessus un radiateur, avec une interface puce/radiateur dont le C est élevé, et ensuite le radiateur offre une très grande surface pour l’échange radiateur/air avec un C faible.<br /> C’est pour ça que sous un même radiateur et avec une même surface d’échange, une puce consommant 100W va être plus chaude qu’une puce consommant 10W. Il y a un flux de chaleur 10 fois plus grand à échanger avec le radiateur, il faut donc que l’écart de température entre la puce et le radiateur soit multiplié par 10.<br /> Par exemple, si tu as une puce qui fait 35°C au repos en consommant 10W avec le radiateur à 30°C, la même puce consommant 100W en pleine charge montera à 80°C (en supposant que le radiateur reste à 30°C… en pratique il y a aussi de fortes chances que la température du radiateur augmente, et donc la puce montera encore un peu plus haut). (Note : ce paragraphe simplifie un peu en considérant que chaque élément a une température unique, en pratique c’est encore un peu plus compliqué, car au sein du radiateur tu as un gradient de température, le radiateur est plus chaud à sa base qu’au bout de ses ailettes, et la conductivité thermique du radiateur entre du coup également en compte dans l’évaluation de son efficacité, c’est pour ça qu’un radiateur avec une base en cuivre et/ou des caloducs est plus efficace qu’un monobloc en alu, l’alu ayant une plus faible conductivité thermique)<br /> Inévitablement, si tu as plus de puissance à dissiper au niveau de la puce, tu en auras aussi plus au niveau du radiateur (qui foit dissiper exactement autant que la puce), et donc soit il faut augmenter la capacité de dissipation du radiateur. Ce qui nécessite d’augmenter sa taille ou le flux d’air.<br /> C’est pas pour rien que les 3090 Ti on un radiateur beaucoup plus gros que les 3050 hein, c’est pas juste parce que le GPU est plus gros, mais bien parce que la puissance à dissiper est beaucoup plus grande. Une puce consommant dix fois plus et ayant dix fois plus de surface échangera tout aussi efficacement avec le radiateur (ie le dK au niveau de l’interface puce/radiateur sera le même), mais derrière il faut aussi que le radiateur parvienne à évacuer tout ça, sinon sa température augmente, et donc, celle de la puce augmente (puisque le dK entre la puce et le radiateur est imposé par les règles de la thermodynamique, si la température du radiateur augmente, celle de la puce augmente d’autant).
sylvio50
MattS32:<br /> … Note : ce paragraphe simplifie un peu en considérant que chaque élément a une température unique, en pratique c’est encore un peu plus compliqué, car au sein du radiateur tu as un gradient de température, le radiateur est plus chaud à sa base qu’au bout de ses ailettes<br /> Justement.<br /> Ce n’est pas la T°C de l’air en bout de radiateur qui compte (dit au dessus), mais bien la T°C du CPU/GPU. Avoir 30°C en bout de radiateur ne suffit pas si ton CPU/GPU est à 80°C. Et pourtant, c’est cette configuration que tu observeras dans le cas d’un CPU/GPU de petite surface couplé à un gros refroidissement (watercooling inclus d’ailleurs).<br /> Je t’ai montré l’exemple du i5 3570K watercoolé parce que c’est un CPU pas trop gros. Mais il faudrait trouver des CPU/GPU encore plus petit et qui soient overclocké/watercoolé pour bien montrer qu’il ne suffit pas d’avoir un bon refroidissement pour dissiper une forte puissance.<br /> Malheureusement, je n’ai plus le courage de chercher.<br /> @+
lightness
oui techniquement une bonne maj de firmware éviterait de changer sa carte graphique on y rajoute éventuellement des slots mémoires comme sur les cartes mères et c’est suffisant. mais apparemment c’était pas vrai il fut une époque
juju251
Peggy10Huitres:<br /> Quand on pense que coder dans le language d’assemblage une carte 3dFX Voodoo ferait tourner les derniers jeux du moment … <br /> Je réponds très tard, parce que je n’avais pas vu le message, mais … NON, juste NON.<br /> Il faut arrêter de dire n’importe quoi quand-même …<br /> Les Voodoos, quelque que soit leur générations ne supportent pas le moindre langage de shaders.<br /> Et je ne parle même pas de la taille mémoire, ni de la limite en taille des textures.<br /> Et last but not least, les Voodoo, jusqu’au 3, inclus ne supportent les couleurs que sur 16 bits.
MattS32
Ça peut être vrai côté CPU (et encore, les langages managés, certes ça bouffe des perfs, mais c’est pas que de la non optimisation, c’est aussi pour apporter des améliorations en stabilité et en sécurité), mais je doute que ça soit le cas côté GPU, il me semble que les GPU sont encore adressés de façon assez bas niveau, notamment via les shaders.<br /> Par contre tu peux avoir la partie CPU du moteur du jeu qui est super mal optimisée et fait que la CG n’est pas « alimentée » suffisamment en travail, mais dans ce cas là elle se tourne les pouces (et donc consomme moins notamment), sa puissance n’est pas utilisée pour « avaler » la non optimisation.
Voir tous les messages sur le forum
Haut de page

Sur le même sujet