🔴 Soldes : jusqu'à - 70% sur le high-tech 🔴 Soldes d'hiver : jusqu'à - 70% sur le high-tech

NVIDIA : il y aurait une RTX 3090 SUPER à venir, et elle enverrait du lourd

Pierre Crochart
Spécialiste smartphone & gaming
27 août 2021 à 10h02
41
Nvidia GeForce RTX 3090 © © Nvidia
© NVIDIA

Quelques mois après la sortie de sa gamme Ti, qui concerne les séries RTX 3060, 3070 et 3080, NVIDIA aurait dans ses cartons un modèle « SUPER » de sa très haut de gamme RTX 3090.

Une carte, on s'en doute, particulièrement puissante, qui reposerait sur un GPU GA102-350-A1 (8 nm) de plus grande taille que l'actuelle 3090 et censé amorcer la bascule vers l'architecture Lovelace qui remplacera l'actuelle Ampere sur la prochaine génération de cartes graphiques.

Un monstre de puissance

On doit les premières informations concrètes à propos de la RTX 3090 SUPER à l'informateur Greymon55 qui, sur Twitter, publie lapidairement quelques caractéristiques.

Selon ses sources, la RTX 3090 SUPER embarquerait 10 752 cœurs CUDA (contre 10 496 sur le modèle actuel), 336 TMU, 112 ROP et 336 Tensor Cores pour 84 RT Cores. Ce monstre alignera toujours 24 Go de mémoire GDDR6X, mais sa bande passante grimperait cette fois à 20 Gbps, contre 19,5 Gbps de nos jours. Le bus-mémoire de la carte resterait à 384 bits.

On ignore encore à quelle fréquence ce nouveau modèle est supposé fonctionner, mais l'actuelle RTX 3090 affiche déjà 1 400 MHz en base et 1 700 MHz en boost. Cela ne concerne évidemment que les cartes Founders Edition. Les OEMs auront tout le loisir de proposer des fréquences plus élevées lorsqu'elles seront en mesure de customiser la carte dans les mois qui viennent.

Une consommation électrique à la hausse

Qui dit augmentation de la puissance, dit logiquement hausse de la consommation électrique. Et cette RTX 3090 SUPER pourrait s'avérer encore plus gourmande que son aînée, laquelle demande déjà 350 W pour fonctionner correctement (une RTX 3070 en réclame 220 W).

Toujours selon Greymon55, il faut s'attendre à un TDP supérieur à 400 W. Un autre informateur estime quant à lui sur Twitter qu'il pourrait même atteindre 450 W. De quoi, peut-être, motiver l'achat d'une nouvelle alimentation plus costaude pour supporter cette usine à gaz.

Les planètes semblent en tout cas s'aligner pour une mise en production d'ici la fin d'année et une sortie début 2022.

Source : WCCFTech

NVIDIA GeForce RTX 3090
NVIDIA GeForce RTX 3090
Carte graphique
date de sortie : 24-09-2020
Voir la fiche produit
Soyez toujours courtois dans vos commentaires.
Respectez le réglement de la communauté.
41
22
TheLoy
Et vendue à un prix indécent. Ouaaais !
Popoulo
T’as les moyens, tu achètes. Tu les as pas, tu te rabats sur un autre modèle. Cela fonctionne pour pas mal de choses ^^
orphen1978
Le tableau à la fin de l’article annonce un tarif identique à la 3090 du moins pour les FE
fox-idcom
Attention tout de même l’article provient de wccftech qui annonce pas mal de rumeurs ( rappel en 2019 et la fameuse 2080 Ti super , tous les sites de hardware se sont empressés de faire une news dessus et au final…)<br /> J’ai du mal à croire que NVIDIA va sortir une telle carte ( pour 2 ou 3 % de perf en plus)
butlerfr
Les consommations sont délirantes…<br /> si on couple ça avec le dernier i9 d’intel à 250W ça tape les quasi 700W sans compter la CM et les autres périphériques…<br /> Faudrait peut être arrêter la course à la puissance à un moment…
Popoulo
«&nbsp;pour supporter cette usine à gaz.&nbsp;» : terme péjoratif et exprimant un aspect négatif. Rien ne permet de l’affirmer à moins que vous ayez testé.<br /> Sinon, le SLI est toujours possible avec ces futures modèles ?
dante0891
La taille du bordel…<br /> Un jour la CG aura la taille d’une tour qu’il faudra brancher via un câble directement, comme une CG externe <br /> Et si un jour on pourrait faire notre propre CG ?<br /> Comme un PC mais ça sera que la partie graphique. La base de la CG (la carte mère) + le choix de la ram (qu’on pourrais changer) et le processeur graphique également.
Emmanuel_Angulo
Il faudra bientôt une alim exterieure dédiée au GPU. Je suis sûr que l’on y vient.<br /> Par contre d’un point de vue marketing j’ai toujours trouvé que le termer «&nbsp;Super&nbsp;» de chez Nvidia était assez ridicule…
Popoulo
Comprends pas ta remarque. Vois pas en quoi mon com est péteux.<br /> Si les gens sont assez kons pour faire un crédit pour une CG, on peut plus rien pour eux.
Popoulo
Bientôt la CG fera aussi boitier pour le PC.
Popoulo
Toutes mes excuses alors.<br /> Oui effectivement tu as tout à fait raison.
mamide
Les gars … c’est une carte qui sert à rien du tout encore moins pour le Gaming … la RTX 3080 Ti reste la carte la plus puissante pour les jeux/prix (elle arrive même à dépasser la 3090 sur certains modèles OC) donc payer 500 euros de plus pour gagner 5 FPS euhhh<br /> «&nbsp;elle enverrait du lourd&nbsp;» euhh … permettez-moi d’en douter c’est pas avec 256 coeurs de plus et une fréquence «&nbsp;sûrement&nbsp;» moins élevée (comme c’était le cas avec la 3080 Ti) qu’elle va faire des ravages !
mamide
La RTX 3080 Ti a 1536 Coeurs de plus que la RTX 3080 … en jeux la différence en FHD (ce qui est bête de jouer en FHD avec ce monstre) est de 10 FPS un peu plus sur certains jeux où le framerate est très élevé … en 4K la différence devient plus étroite on parle de 5 FPS sur beaucoup de jeux et certains le gain est nul.<br /> Donc avec 256 coeurs de plus … le calcul est vite fait … vous ne ressentirez peut être même pas la différence et sur certains jeux vous aurez quoi ? 2 ou 3 FPS coool<br /> En tous cas sur les jeux d’Ubisoft je vous le dit tout de suite vous aurez un gain de 1 FPS et encore <br /> Sur Red Dead Redemption 2 … vous aurez 0 FPS en 4K peut être vous aurez 2 ou 3 FPS de plus.<br /> Bien sûr avec des gains ridicules vous la payerez 200 ou 300€ plus cher que la 3090 <br /> Ahhhh oui j’ai oublié la Mémoire … Oui on a enfin une carte graphique (presque mainstream) avec 1 To/s de bande passante (useless pour le Gaming mais ça a le mérite d’en parler).
Popoulo
«&nbsp;En tous cas sur les jeux d’Ubisoft&nbsp;» : c’est du Ubisoft, optimisé par un manchot avec une truelle en papier mâché
fox-idcom
@Emmanuel Angulo : +1 avec toi Emmanuel , Nvidia a sorti ce nom qu’une seule fois pour le refresh Turing et tout le monde parle de version Super maintenant alors que si ca se trouve Nvidia n’emploiera plus ce terme.<br /> @Mamide : en effet , je vois mal comment elle va pouvoir envoyer bcp plus de lourd que l’actuelle 3090 vu ces rumeurs de specs.<br /> personnellement c’est bien simple , comme la 2080 Ti en son temps qui n’a pas eu de version "améliorée’ , je ne crois absolument pas à la sortie de cette 3090 améliorée.<br /> surtout vu la situation actuelle de pénurie !
Popoulo
Je pense que les 3090 sont un compromis jeux/applications, du moins je le vois comme ça. Rendering 3D, video etc… applis supportant le calcul GPU-Cuda et sans oublier le max de ram qu’elle embarque.<br /> Après, avec une 3090, on peut aussi jouer en 8K sur un 88’’ (cf video Linus Tech Tips RTX 8K Gaming). Plus sérieusement, ça reste une bonne carte pour le jeu.<br /> Et pas oublier le SLI qui n’est possible uniquement sur ces modèles-là.
kyosho62
butlerfr:<br /> si on couple ça avec le dernier i9 d’intel à 250W<br /> Tu le sort d’où ce chiffre ? sachant que pour calculer la consommation réelle du processeur seul, c’est très complexe et que la plupart des tests qu’on peut voir se fait via la carte mère, donc la consommation de la CM en plus…<br /> Autre petit détail, et pas des moindres vu que beaucoup font l’erreur le TDP n’est pas la consommation du processeur.
mamide
Si elle remplaçait la 3090 pour le même prix ok mais là elle vaut pas le coup même pour les applications … franchement la 3080 Ti reste la meilleure performances/prix<br /> Pour le SLI (D’ailleurs c’est le NVLink aujourd’hui) beh ça n’a aucun intérêt pour les jeux car il n’y a plus de SLI c’est mort car les développeurs et même Nvidia n’arrive pas à donner un gain important vis à vis de la consommation.<br /> Imagine 2x RTX 3090 pour une consommation de 1000 Watts (avec le CPU) … tout ça pour gagner 20 FPS c’est nul !
mamide
kyosho62:<br /> le TDP n’est pas la consommation du processeur.<br /> En effet ta raison … mais en même temps c’est pas pour rien que les gens confondent les deux car au final si le processeur a besoin de dissiper 95 Watts c’est qu’il les a consommés <br /> Si un CPU consomme 200 Watts … ils vont aller où ? car en physique "Rien ne se crée, rien ne se perd, tout se transforme) … ils vont se transformer en chaleur tout simplement et cette chaleur doit être gérée par le Système de refroidissement voilà donc en donnant le TDP on donne à la fois la consommation et on donne une référence à ceux qui fabriquent les ventirads.<br /> Mais dans un certain point ta raison de dire que le TDP n’est pas la consommation car les fabricants mentent sur le calcul de cette valeur … chez Intel par exemple le TDP est juste quand on utilise pas tous les coeurs mais en boost avec des calculs intensifs (AVX2) beh ça explose tout en AVX-512 le 11900K atteint même 350 Watts c’est pour dire !<br /> Mais un CPU qui a un TDP de 125 Watts (en Stock) et beh il consomme même moins si on désactive le boost. après le PL2 personne n’y croit on sait tous que ça consomme plus car ça devient ingérable mais en même temps tu sais qu’il faut un Ventirad qui dissipe 200W et s’il peut pas le faire alors ton CPU va chauffer à mort et il va s’éteindre.<br /> Mais intel s’en fout de ça car dans la majorité des cas on dépasse pas le TDP.
Emmanuel_Angulo
Oui, les gens confondent, mais dans le fond, c’est presque pareil : pour évacuer cette chaleur, le processeur a bien du prendre l’energie quelque part
pecore
Un peu trop, même, en ce moment.<br /> Mais je ne pense pas que ce qui pose problème à beaucoup avec ce type de carte soit le prix dans l’absolu. C’est le fait de créer des produits particulièrement ciblé pour frimeurs friqués alors que le commun n’a même pas la possibilité d’acheter une carte milieu de gamme, moyens ou pas.<br /> C’est le cynisme de la démarche qui est déplaisant, très déplaisant même.
Guillaume1972
Bonne idée.
Popoulo
Tu as tout à fait raison en ce qui concerne les jeux mais pour les applis si tu as besoin de +10go de ram sur ta CG, tu n’auras pas le choix que de te tourner vers un 3090+ (ou une Quadro style la RTX8000 avec 48Go si t’es vraiment en rade mais pas vraiment prévue pour jouer et surtout le prix… aie.).<br /> En ce qui concerne le SLI, c’est toujours dans l’optique applicatif. Aucun intérêt pour les jeux qui à 99.99% ne le prennent même plus en charge. Par contre, du GPU rendering avec 2x3090 sur Octane par exemple, c’est juste démentiel.
Popoulo
Tu sais, c’est pas parce qu’une personne a les moyens et la nécessité que ça en fait obligatoirement un frimeur.<br /> Bien d’accord sur le fait que les prix sont totalement absurdes tout comme la dispo.
pecore
Popoulo:<br /> Tu sais, c’est pas parce qu’une personne a les moyens et la nécessité que ça en fait obligatoirement un frimeur.<br /> Non mais pour acheter ce type de carte les chances seront tout de même très grande que ce soit le cas.
mamide
Si quelqu’un a un écran 4K de 2000€ … je pense que c’est dans la logique des choses de se payer une CG à 1500€ au moins pour faire tourner ses jeux en 4K sinon qu’elle est l’utilité de son écran (regarder des films en 4K) je pense qu’il a une TV pour ça !
sebstein
usine à gaz<br /> Terme galvaudé… vous voulez souligner la consommation de la carte, alors que le terme «&nbsp;usine à gaz&nbsp;» désigne qqch de complexe.<br />
Popoulo
Disons que je vois mal le gars se promener avec autour du cou pour se la péter (vu le mastodonde en plus) <br /> Après si le mec à 2k à jeter pour «&nbsp;frimer&nbsp;», grand bien lui fasse. Faut de tout pour faire ce bas monde.
Popoulo
Oui c’est sur je ne pense pas avoir dit le contraire. Je parlais de l’avantage de la 90 pour quelqu’un qui conciliait jeux+applicatifs graphiques. Jeux uniquement, alors pas de soucis, la 80/80ti suffit amplement.
turrican59
Cool ! je vais remplacer ma RTX 3090 , pour l’alim je m’en fou j’ai une 1200 Watts .
c_planet
On ne parlait pas des Titans aussi souvent pour les générations passées, ils ont juste changé le nom et du coup ça crée un manque chez les joueurs et un boost dans le nombre de news… quand je vois 3090 dans une news, je pense Titan, et je ne me projette presque pas dans son intérêt.
gamez
faire gaffe à la facture d’electricité xD
yookoo
il y aura «&nbsp;une&nbsp;» RTX 3090 super.<br /> Une seule ?
echap2000
J’ai une rtx 3090 + RTX 3070 … la 3090 qu’est-ce que ça chauffe !
Lounch
Je viens de me prendre une RTX 3080 TI FE. Qu’est ce que ca chauffe ! Je suis un peu désabusé par le bruit que cela engendre. Je ne sais pas trop quoi faire…
newseven
et elle enverrait du lourd.<br /> On parle de consommation ou de poids ou les deux.
Niark_Ozzy
Du lourd parce qu’elle vaut son poids en or.<br /> Mais elle va battre des records , surtout celui des 2.5% de coeurs en plus les plus chers de l’histoire, puis celui de la conso.
Voir tous les messages sur le forum

Derniers actualités

Tesla sommée de remettre au gouvernement américain des documents sur sa conduite autonome
Ceci est le plus gros avion cargo autonome et électrique au monde
Processeur russe
Le 3D Vertical Cache d'AMD bientôt sur les GPU Radeon RX 7000 ?
Samsung : la fin de l'année 2022 a été une catastrophe... Du mieux pour 2023 ? Ce n'est pas si sûr
Test Apple HomePod (2023) : retour en fanfare pour l'enceinte connectée d'Apple ?
iPhone : la détection des accidents, ça marche ! Cet exemple est impressionnant
Cette nouvelle IA de génération de voix dépasse tout ce que vous avez déjà entendu... et pose déjà des problèmes
Un hébergement web à prix réduit : ne manquez pas cette superbe réduction de -75%
Un jeu The Mandalorian, ça vous plairait ? Un fan s'y colle sur l'Unreal Engine 5, et ça fait rêver
Haut de page