🔴 French Days en direct 🔴 French Days en direct

AMD Navi 31 et NVIDIA AD102 : deux monstres de gourmandise électrique ?

Nerces
Spécialiste Hardware et Gaming
31 juillet 2021 à 12h30
23
AMD NVIDIA

La prochaine génération de cartes graphiques va logiquement atteindre des sommets de consommation électrique. Jusqu'à quel point ?

Alors que l'on approche doucement du premier anniversaire des GeForce RTX série 3000, les rumeurs entourant les nouvelles générations NVIDIA et AMD se font plus nombreuses. Nos confrères de Videocardz se sont chargés de les compiler afin d'observer leurs points de convergence.

Une RTX 4090 entre 420 et 450 Watts

Sur Twitter, deux « fuiteurs » bien connus ont ainsi insisté sur la consommation de celle que l'on nomme déjà RTX 4090. Kopite7kimi et Greymoon55 s'accordent effectivement sur un GPU capable d'engloutir entre 420 et 450 Watts. Greymoon55 souligne toutefois que la puce AD102 qui va l'équiper n'est pas encore taped out.

En d'autres termes, le design de la génération connue sous le nom de code Ada Lovelace n'est pas encore finalisé chez NVIDIA. De plus, cette consommation n'est qu'une estimation établie à l'aide des informations déjà recueillies liées à la taille du die ou au nombre de cœurs Cuda.

Entre 450 et 480 Watts pour Navi 31

NVIDIA n'est évidemment pas seul et, avec son Navi 31, AMD semble devoir être dans les mêmes eaux. Nos confrères de Videocardz évoquent un processeur d'environ 800 mm² et parlent d'une consommation comprise entre 450 et 480 Watts.

Le point sur tous les informations aujourd'hui disponibles © Videocardz
Le point sur tous les informations aujourd'hui disponibles © Videocardz

Cité par nos confrères, un certain wjm47196 semble savoir que Navi 31 serait, lui, déjà taped out pour une sortie envisagée au cours du troisième trimestre 2022. Avec cette nouvelle génération, AMD sera le premier à adopter une architecture MCM – ou Multi Chip Module – à la différence de NVIDIA qui restera sur une architecture plus classique.

Si les diverses sources ici mentionnées par Videocardz sont d'habitude plutôt fiables, gardons toutefois à l'esprit qu'il ne s'agit encore que de rumeurs : chez AMD comme chez NVIDIA, les prochaines générations de GPU ne sont pas encore pour tout de suite.

Source : Videocardz

Nerces

Spécialiste Hardware et Gaming

Spécialiste Hardware et Gaming

Tombé dans le jeu vidéo à une époque où il fallait une belle imagination pour voir ici un match de foot, là un combat de tanks dans ces quelques barres représentées à l'écran, j'ai suivi toutes les év...

Lire d'autres articles

Tombé dans le jeu vidéo à une époque où il fallait une belle imagination pour voir ici un match de foot, là un combat de tanks dans ces quelques barres représentées à l'écran, j'ai suivi toutes les évolutions depuis quarante ans. Fidèle du PC, mais adepte de tous les genres, je n'ai du mal qu'avec les JRPG. Sinon, de la stratégie tour par tour la plus aride au FPS le plus spectaculaire en passant par les simulations sportives ou les jeux musicaux, je me fais à tout... avec une préférence pour la gestion et les jeux combinant plusieurs styles. Mon panthéon du jeu vidéo se composerait de trois séries : Elite, Civilization et Max Payne.

Lire d'autres articles
Vous êtes un utilisateur de Google Actualités ou de WhatsApp ? Suivez-nous pour ne rien rater de l'actu tech !
google-news

A découvrir en vidéo

Rejoignez la communauté Clubic S'inscrire

Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.

S'inscrire

Commentaires (23)

lightness
et comme on le sait plus une carte graphique chauffe plus elle consomme et plus elle est instable. si ça chauffe autant c’est que amd et NVIDIA n’ont pas pu intégrer une méthode de gravure plus faible car on le sait les fondeurs sont en bout de course. alors que tant de procédé existe comme le voxel, capable d’afficher un minde ouvert avec seulement 4 mb de mémoire vidéo. et puis c’est quoi ces bus mémoire bloqué a 256 bit ?
_Reg24
Pour refroidir de tel monstres, un gris AIO / WC custom ne sera pas de trop.
cid1
Bah, quelle conso de malades, ça fait quelques temps qu’on a des CG capables de faire tourner tout les jeux actuels et futurs.<br /> si ça continue on aura des taxes carbone à payer avec les CG.
fawaz
Malheureusement, même les plus puissantes du moment sont à la peine sur certains jeux en VR.
mamide
où est l’innovation dans tout ça ?? passer de 8nm à 5nm pour avoir 200 Watts en plus ?? … si on vous annonce 450W alors les cartes Customs vont atteindre 600 Watts car les RTX 3090 atteignent déjà 500 Watts sur certains modèles pour d’autres ça dépasse 450W !!!
mamide
Nvidia on veut des Cartes «&nbsp;Lite Power Consumption&nbsp;» (LPC)
mamide
lightness:<br /> et comme on le sait plus une carte graphique chauffe plus elle consomme<br /> euhhh à partir des RTX … les CG plus elles sont bien refroidies plus elle consomme donc c’est un cercle vicieux car le GPU Boost 4.0 overclock tout seul la carte jusqu’à la limite thermique ou de consommation tout en maintenant son Power limit (sauf si on le fait sauter en bidouillant le bios) …<br /> lightness:<br /> et puis c’est quoi ces bus mémoire bloqué a 256 bit ?<br /> Le bus mémoire est lié à la quantité de mémoire utilisée … AMD utilise 8 modules de 2 GB (16 Go Total) pour faire 256-Bit … Nvidia utilise 12 modules de 1 Go pour faire 384-Bit.<br /> En gros on peut pas augmenter le bus sans augmenter la VRAM par contre on peut augmenter la VRAM sans augmenter le bus mais là ça coûte cher car il faut doublé la taille de chaque module …<br /> Voilà pourquoi on a une RTX 3060 Ti à 8 Go et une RTX 3060 à 12 Go (25% moins puissante).
mart666
J’ai hâte de voir la RTX 6090, je n’obtiens que 44-75fps à gta 5 en 4k sans antialiasing avec une 3090, mon 9900K n’est utilisé qu’à 30% c’est clairement pas le facteur limitant…<br /> Si je me base là dessus, à la sortie de GTA 6 je devrai attendre au moins 6 générations de cartes graphiques après la sortie du jeu pour pouvoir y jouer convenablement… C’est clair que je l’achète pas à la sortie, ça me tente pas d’y jouer à 4 fps…
calude_vincent
vivement qu’il passe au 2nm comme ce que propose le future iphone 14 gravé par le même fondeur TSMC qui je le rappel s’occupe de faire des processeurs pour AMD ,NVIDIA, APPLE et d’autres.
castortroy01
Franchement, je vois pas quel type de ventirad pourrait etre dessus, du tripe slot full cuivre dans des dimensions pour grande tour, dispo uniquement chez les norvégiens ?<br /> Curieux de voir ça.
pecore
Ne crions pas avant d’avoir mal, surtout que les annonces de perfs faites des années à l’avance n’engagent que ceux qui y croient. Je doute fort que ces nouvelles générations fassent du fois deux ou fois deux et demi comme annoncé et ni Nvidia ni AMD ne veulent perdre des clients potentiels à cause d’un problème d’alimentation ou de refroidissement.
bmustang
À boycotter tout simplement pour montrer à nvidia et AMD que nous n’acceptons pas des gouffres pareils.
mamide
GTA V bottleneck n’importe quel CPU même si il est utilisé à 10% ou 20% …<br /> Si tu overclock ton CPU ton framerate augmentera même si y a pas de bottleneck apparent.<br /> GTA V est optimisé pour la plupart des configs ce qui fait qu’il aime la fréquence plus que les coeurs
mamide
pecore:<br /> Ne crions pas avant d’avoir mal<br /> Moi j’ai déjà mal en voyant les gens croire qu’une RTX 4090 offrir le double de performance qu’une RTX 3090 <br /> Même si elle n’offre que 10% de plus les gens vont vider les stocks alors pk se casser trop la tête ? Nvidia innove beaucoup dans les cartes industriels et l’IA pour le gaming beh on avance petit à petit !<br /> Au lancement de la RTX 3090 on disait que c’était une carte 4K@60 FPS et pourtant peu de jeux permettent cette prouesse d’où l’invention du DLSS.
mamide
Faudra bien écouler les PSU à 500€
caprikorn
Ca devient n’importe quoi la conso des CG ça consomme autant qu’un pc moyen !
newseven
Sérieux bmustang.<br /> boycotter quand on est en pleine pénurie.<br /> Déjà la rtx 3090 est en rupture de stocke et c’est une carte à plus de 2000$ Canadien LOL.<br /> Pas de problème les mineurs ne vont surement pas cracher dessus.<br /> Je suis sur que ça ne va pas s’améliorer.<br /> Avec tous les restrictions sanitaires et la peur des virus qui active le protectionniste.
lightness
bonjour je ne savais pas pour la 1er réponse (c’est bien une technologie qui n’aurait pas dû voir le jour)<br /> pour la deuxième réponse, la radeon hd 5970 démonte votre argument elle avait 512 bit (ou 2x256 bit) de bus avec seulement 2gb de ram soit 1gb pour 256 bits. la seul chose c’est que la mémoire coûte très cher et depuis des années les bus mémoires sont bloqués a 256 bits pour des raisons de coût. par ailleurs la geforce 256 par exemple porté bien son nom et elle date du début des années 2000.
RM59
Dans une ère où l’on demande des économies d’énergie, c’est l’inverse qui se produit ici.
mamide
HD 5970 ?? ça remonte à 2009 quand même et à cette époque là les CG utilisait des modules mémoire à 128 MB et 128 x 8 = 1024 MB et 8 x 32 bits = 256 bits … le compte est bon !<br /> mes arguments sont justes et je vois pas pourquoi ils seraient faux vu que c’est un fait c’est la réalité c’est pas de la science fiction.
Blackalf
mamide:<br /> Le bus mémoire est lié à la quantité de mémoire utilisée … AMD utilise 8 modules de 2 GB (16 Go Total) pour faire 256-Bit … Nvidia utilise 12 modules de 1 Go pour faire 384-Bit.<br /> Dans ce cas, pourquoi ma Asus R9 280X 3 GB a-t-elle un bus 384 bits ?
mamide
la R9 280X utilise 12 modules de 256 MB … tu compares une CG qui a 8 ans d’âge avec les dernières générations ???<br /> Toutes les CG qui ont 5 ans et plus utilise des mémoires 1 GB minimum … celles d’avant utilisent 512 MB (comme la célèbre GTX 980 et ses 4 GB de VRAM et un bus de 256-bit).<br /> N.B : Je n’oblige personne à me croire … faites des recherches si vous ne me croyez mais vous arriverez à la même conclusion.
Jexx
Pour ce qui concerne le bus mémoire, il faut savoir qu’une grande partie de la consommation de la carte est due à la mémoire. Plus elle est rapide et plus elle consomme. Et il faut qu’elle soit rapide pour alimenter correctement les unités de calcul.<br /> Pour éviter une trop grosse consommation, AMD a opté pour un bus moins rapide (256Bits) et a utilisé une mémoire cache (Infinity Cache) pour compenser.<br /> Au final, gain de performance et gain de consommation. C’est donc plutôt une bonne chose que le bus mémoire n’augmente pas
Voir tous les messages sur le forum
Haut de page

Sur le même sujet