Attention à la consommation : la RTX 4060 aurait un TDP supérieur à la RTX 3070

Nerces
Spécialiste Hardware et Gaming
06 juin 2022 à 12h50
18
© NVIDIA
© NVIDIA

Les premières rumeurs concernant la nouvelle génération de cartes graphiques NVIDIA se focalisent sur la consommation.

Bien qu'un certain flou entoure encore le calendrier de NVIDIA, il est à peu près certain que les cartes graphiques de génération Ada Lovelace nous arriveront cet automne.

Un TDP de plus de 220 Watts ?

Alors que de nombreuses questions se posent autour des capacités des GeForce RTX 4000, le très informé Kopite7kimi évoque le TDP de la RTX 4060 : il serait supérieur à celui de la RTX 3070, certifiée pour 220 Watts.

De fait, la RTX 4060 aurait donc un TDP plus élevé, ce qui creuserait un écart consistant avec le modèle comparable sur la génération actuelle : la RTX 3060 est à 170 Watts. Bien sûr, comme le souligne Kopite7kimi, la question des performances se pose pour un tel TDP.

De leur côté, nos confrères de Videocardz en profitent pour rappeler les évolutions de TDP au fil des générations. La RTX 4060 marquerait une augmentation sans précédent :

  • GeForce RTX 4060 : 220 W+ (rumeur)
  • GeForce RTX 3060 : 170 W
  • GeForce RTX 2060 : 160 W
  • GeForce GTX 1060 : 120 W
  • GeForce GTX 960 : 120 W
  • GeForce GTX 760 : 170 W

Source : Videocardz

Nerces

Spécialiste Hardware et Gaming

Spécialiste Hardware et Gaming

Tombé dans le jeu vidéo à une époque où il fallait une belle imagination pour voir ici un match de foot, là un combat de tanks dans ces quelques barres représentées à l'écran, j'ai suivi toutes les év...

Lire d'autres articles

Tombé dans le jeu vidéo à une époque où il fallait une belle imagination pour voir ici un match de foot, là un combat de tanks dans ces quelques barres représentées à l'écran, j'ai suivi toutes les évolutions depuis quarante ans. Fidèle du PC, mais adepte de tous les genres, je n'ai du mal qu'avec les JRPG. Sinon, de la stratégie tour par tour la plus aride au FPS le plus spectaculaire en passant par les simulations sportives ou les jeux musicaux, je me fais à tout... avec une préférence pour la gestion et les jeux combinant plusieurs styles. Mon panthéon du jeu vidéo se composerait de trois séries : Elite, Civilization et Max Payne.

Lire d'autres articles
Vous êtes un utilisateur de Google Actualités ou de WhatsApp ? Suivez-nous pour ne rien rater de l'actu tech !
google-news

A découvrir en vidéo

Rejoignez la communauté Clubic S'inscrire

Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.

S'inscrire

Commentaires (18)

ar-s
EDF, Engie, Eni, TotalEnergie approuvent.
tux.le.vrai
moi, je veux des machines au rapport Perf/conso attractif, avec un processeur du genre AMD Ryzen 5700x (tdp 65w) , et quelque chose d’équivalent pour les cartes graphiques.<br /> Augmenter les perfs en augmentant la conso n’a pas d’intérêt à mes yeux,<br /> dans cette voie, il suffit d’aligner les cartes graphiques sur les port pci express d’une carte mère adaptée !<br /> Je ne veux pas du bruit d’un 747 dans mon salon, ni d’un config qui chauffe mon bureau en été !<br /> (et je ne parle ici que de mes égoïstes besoins, pas de la conso d’énergie, écologie tout ça)
sylvio50
Sachant que l’on est généralement au alentour de 0,6 W / mm² (0,7 pour la RTX 3090 Ti par exemple) pour la plupart des cartes graphique Nvidia **, cela nous donnerai un gros GPU de plus de 350 mm² pour la RTX 4060.<br /> Nota : Les RTX 3060Ti, 3070 et 3070Ti font 392 mm² pour comparaison sachant que c’est le RTX 3070Ti qui correspond au « GPU plein » **.<br /> ** : avec une surface active de 100%, c’est à dire sans unités de calcul désactivé comme sur la RTX 3050 par exemple
Pernel
TDP =/= conso
kisama56
Ben j’ai pas besoin d’un CG qui consomme autant qu’une centrale, la 4060 c’est supposé être le milieu de gamme.<br /> C’est complètement débile, ils n’ont rien compris au monde actuel. Qu’ils propose des CG avec un tel TDP tant mieux pour ceux qui veulent en avoir une grosse, mais faut penser à tout le monde et beaucoup ne veulent un CG avec la conso d’une 1060
idhem59
Il y a quand même une énorme corrélation entre les deux.<br /> En schématisant pas mal, en entrée tu as du courant et des signaux logiques, et en sortie des signaux logiques et de la chaleur. Les signaux ne pesant pas grand chose, la quasi totalité du courant est dissipé sous forme de chaleur. Donc ces deux variables évoluent forcément ensemble.<br /> Le problème dans l’histoire, c’est plutôt la manière dont les constructeurs calculent le TDP. Quand on voit par exemple certains CPU Intel qui peuvent dissiper en charge jusqu’à deux fois plus d’énergie que le TDP annoncé, il y a un problème quelque part. Ou alors quand deux CPU ayant la même architecture sont annoncés avec le même TDP alors que l’un à deux fois plus de coeurs que l’autre, impossible que ces deux CPU dissipent la même puissance, et aient la même consommation.
crush56
Bah dans ce cas tu prends une 3050 qui consomme moins et tu laisses les cartes qui consomment plus à ceux qui recherchent la performance avant la consommation
kisama56
J’attends de voir la conso d’une 4050, la 3050 a déjà un TDP de 130<br /> (vu la différence de perf avec une 1060, l’achat du 3050 est pas très utile)
Delta243
Rien d’étonnant les cartes graphiques toujours plus performantes = forcément plus de consommation. La finesse de gravure ne peux pas compenser le nombre croissant des Cuda core etc etc.<br /> C’est de la pure logique.<br /> Si vous avez un problème de consommation arrêter de jouer sur un pc.<br /> Il ne ne faut pas oublier que c’est un luxe, un privilège que la majorité n’as pas
sylvio50
idhem59:<br /> Ou alors quand deux CPU ayant la même architecture sont annoncés avec le même TDP alors que l’un à deux fois plus de coeurs que l’autre, impossible que ces deux CPU dissipent la même puissance, et aient la même consommation.<br /> Ce qu’il faut savoir, c’est que la consommation est proportionnel au carré de la fréquence alors qu’elle n’est que proportionnel au nombre de coeurs à fréquence égale. Le massivement parallèle consomme moins d’énergie à puissance de calcul théorique égale.<br /> Perso, j’utilise cette formule (qui vaut ce qu’elle vaut, mais elle marche plutôt bien) pour comparer les GPU Mobile avec les GPU bureau lorsque l’architecture est la même (même finesse de gravure …) :<br /> Puissance de calcul relative = Puissance de référence relative x √(N coeurs / N coeurs référence) x √(TDP / TDP référence)<br /> Exemple : RTX 3050 130W versus RTX 3090 350W<br /> Puissance de calcul relative = 1 x √(10496 / 2560) x √(350 / 130) = 3,3 x.<br /> La RTX 3090 350 W est 3,3 fois plus perf que RTX 3050 130W de manière théorique avec cette formule. Dans les faits, l’écart sera réduit, alors cette écart doit plutôt être regardé sous 3DMark avec le score GPU pour être mieux vérifié.<br /> Nvidia pourrait tout à fait par exemple mettre une RTX 3090 à 1/2 de sa fréquence actuelle pour faire chuter le TDP par 4 et arriver à 90 W. La puissance de calcul serait toujours supérieur à la RTX 3050 d’origine par exemple. Le problème est donc un problème de concurrence. Il faut juste se dire que c’est la surface de die qui est la variable importante dans le coût d’un GPU. La fréquence, elle, est gratuite, on peut la modifier comme on veut tant que l’on ne dépasse pas grosso modo une limite de environ 0,75 W / mm² pour les versions bureau et la moitié soit 0,375 W / mm² pour les versions Mobile de gamer voir encore la moitié pour les ultraportable fin. Si un fabricant vendait une carte à 1000 € (500 mm², 100 TFLOPS, 50 W) face à une carte de même puissance à 450 € mais avec TDP de 200 W (250 mm², 100 TFLOPS, 200 W), la carte à 1000 € ne se vendra presque pas.<br /> Apple à la limite, ils pourraient le faire car ils n’ont pas le même type de clientèle et ils n’auraient pas vraiment de concurrent si ils le faisaient. Sa ressemblerait d’ailleurs au GPU du M1 Max.<br /> A la limite, les fabricants devraient permettre le sous-cadençage de leur GPU avec des réglages prédéterminé de manière plus officiel en dehors du système d’exploitation mais sans que l’ont soient obligé de flasher le BIOS pour autant.
kisama56
Relis l’article<br /> GeForce GTX 1060 : 120 W<br /> GeForce GTX 960 : 120 W<br /> GeForce GTX 760 : 170 W<br /> Les CPU sont toujours performant pourtant leur conso ne bouge pas vraiment
pecore
Outre le problème de consommation, bruit, alimentation etc… les clients sont aussi en droit de se demander si on ne se paie pas leur fiole, si, en gros, on ne leur vend pas comme du Next-Gen des cartes qui ne sont que des modèles overclocké de la génération précédente.<br /> Perso c’est beaucoup ce que cette surenchère de Watts me fait craindre et il pourra être intéressant d’undervolter les futures cartes pour les mettre face à face avec leur équivalent de la génération d’avant, juste pour voir.
supernaz
A mon avis, la raison c’est que nVidia doit compenser les perfs de Lovelace en augmentant les fréquences (donc conso/TDP) de leurs cartes pour s’aligner face aux perfs de la future archi RDNA3 d’AMD. Ce n’est qu’une théorie mais ça me semble crédible.<br /> Faut pas se leurrer, les 2 fabricants doivent avoir pas mal d’informations sur leur concurrent respectif.
philou44300
Je vais sauter cette génération en espérant que la suivante utilisera une finesse de gravure inférieure avec une conso plus basse sinon je changerai ma rtx3070 par une inférieure dans la gamme. Pas envie de changer d’alim et d’avoir une conso trop élevée pour jouer.
Pernel
Justement, tout est là, dans ton deuxième paragraphe, s’ils calculaient de manière un peu plus honnête leur TDP, ça collerait à peu de choses prêt à la conso (max), sauf qu’il n’y a pas vraiment de règlementation sur le calcul, chacun fait à sa sauce, et on se retrouve avec des produits avec une petite centaine de watts de TDP et 250+W en conso (coucou Intel)
Pernel
Avec une 3070 t’es tranquille quelque temps quand même.
Altdorf
Ma GTX 1060 6 Go tourne très bien dans BF2042 même si je n’y joue plus
Kratof_Muller
Bon … 1 an plus tard<br /> 115 watts
sylvio50
Une autre manière de voir les choses serait de considérer que la « vrai » RTX 4060 est actuellement dénommé « RTX 4070 Ti » ce qui correspondrait à 295 mm², valeur très proche des 276 mm² de la RTX 3060.<br /> RTX 3060<br /> RTX 4070 Ti<br /> RTX 3070<br /> (mm²)<br /> 276 mm²<br /> 295 mm²<br /> (W)<br /> 170 W<br /> 285 W *<br /> 220 W<br /> (* : Tout en sachant qu’il est possible de légèrement baisser la fréquence du RTX 4070 Ti de 10% pour baisser son TDP de 15~20% environ).<br /> Nvidia ayant vu que AMD ne serait pas un concurrent ont rétrogradé les dénominations des GPU en dessous de la RTX 4090.<br /> RTX 4090 =&gt; RTX 4090 (16384 coeurs | 610 mm²)<br /> RTX 4080 Ti =&gt; Rien<br /> RTX 4080 =&gt; Rien<br /> RTX 4070 Ti =&gt; Rien<br /> RTX 4070 =&gt; Rien<br /> RTX 4060 Ti =&gt; RTX 4080 (9728 coeurs |380 mm²)<br /> RTX 4060 =&gt; RTX 4070 Ti (7680 coeurs | 295 mm²)<br /> RTX 4050 Ti =&gt; RTX 4070<br /> RTX 4050 =&gt; RTX 4060 Ti<br /> RTX 4040 Ti =&gt; RTX 4060<br /> RTX 4040 =&gt; RTX 4050
Voir tous les messages sur le forum
Haut de page

Sur le même sujet