NVIDIA : une fuite confirme avant l'heure des performances de folie furieuse pour la RTX 3080

Nathan Le Gohlisse
Spécialiste Hardware
16 septembre 2020 à 15h28
44
Nvidia GeForce conf-10 © © NVIDIA
© Nvidia

Grâce au média chinois TecLab, qui n'a visiblement pas respecté l'embargo fixé par NVIDIA, la RTX 3080 dévoile ses performances avec un peu d'avance. La puce, attendue le 17 septembre prochain, serait notamment capable de surclasser la RTX 2080 Ti .

NVIDIA dévoilait la semaine dernière sa nouvelle gamme de cartes graphiques en présentant une à une les RTX 3070, 3080 et 3090 . L'occasion pour la firme de promettre des performances sensiblement supérieures à celles de la génération précédente. Durant sa conférence, NVIDIA assurait ainsi que sa RTX 3080 est deux fois plus performante que la RTX 2080, lancée en 2018. Des chiffres qui tendent à se vérifier à la lumière des données partagées, trop tôt, par le site chinois TecLab, dans une vidéo (supprimée depuis), et reprises aussitôt par les américains de VideoCardz.

Des performances au firmament pour la RTX 3080

La RTX 3080 passée en revue a été couplée à une configuration axée sur un Core i9-10900K, 32 Go de DDR4 à 4133 MHz (CL17) et une alimentation 1 000 W Superflower LeadEX G1000. Le nouveau GPU de NVIDIA fonctionnait par ailleurs avec les pilotes de test officiels GeForce 456.16.

Comme le rappelle, WCCFtech, les résultats dévoilés méritent encore d'être pris avec des pincettes, mais la RTX 3080 apparaît environ 25 % plus rapide que la RTX 2080 Ti sous 3DMark Firestrike (Performance et Extreme), tout en devançant la RTX 2080 SUPER avec près de 45 % de performances en plus.

C'est toutefois en 4K que la carte donne le meilleur d'elle même en affichant cette fois jusqu'à 36 % de performance en plus que la RTX 2080 Ti, qui dispose pourtant de 1 Go de VRAM en plus.

Nvidia RTX 3080 bench-1 © © TecLab via BiliBili
Nvidia RTX 3080 bench-2
Nvidia RTX 3080 bench-3 © © TecLab

La RTX 2080 Ti battue d'une large avance ?

En jeu, la RTX 3080 brille tout autant. Le protocole de test du site chinois comprenait des sessions sur Far Cry 5, Borderlands 3 , Forza Horizon 4, Assassins Creed Odyssey , Horizon Zero Dawn , Shadow of The Tomb Raider, Control , et Death Stranding .

En moyenne, la RTX 3080 arrivait à battre de 62 % la RTX 2080 SUPER sur les jeux ne supportant pas le DLSS, tout en affichant 70 à 80 % de performances en plus lorsque le DLSS était activé.

Reste la question de la consommation de cette nouvelle puce de génération Ampère. De ce côté TecLab faisait mention d'une consommation totale d'environ 500 W pour sa configuration complète. Un chiffre qui, s'il se confirme, serait très honnête. Il faudra toutefois attendre la fin de l'embargo fixé par NVIDIA pour avoir un meilleur aperçu de ce que peut proposer la RTX 3080, actuellement en test dans nos locaux.

Nvidia RTX 3080 bench-4
Nvidia RTX 3080 bench-6

Source : WCCFTech

Soyez toujours courtois dans vos commentaires.
Respectez le réglement de la communauté.
44
22
jaceneliot
Deux remarques :<br /> Ces résultats s’annoncent décevants. On nous avait promis une 3080 deux fois plus puissante qu’une 2080. Là on en est loin quand même.<br /> La consommation de 500 W de la configuration complète est raisonnable ? Ou alors c’est juste que ça fait des années qu’on pousse les gens (par ce qu’on teste, ce qu’on mets en avant) à achter des alimentations de 750 W, voir 1000 ou 1500 W pour des configurations qui demandaient très rarement plus que 400 W ? Parce que 500 W dans l’absolu c’est pas mal. Un processeur moderne comme le Ryzen 3700x, c’est environ 100 W, maximum 120 W avec le SOC entier. Tu ajoutes à ça quelques ventilateurs, la carte-mère, la RAM tu atteints peut-être 200 W. Plus une carte graphique à environ 200 W, tu arrives à 400 W-500 W maximum. Les gens devraient juste réfléchir et sortir leur calculette 5 minutes parfois.<br />
Bombing_Basta
Une alimentation a son meilleur rendement et des tensions plus stables, de souvenir, entre 50 et 80% de charge, donc pour une consommation de 500W vaut mieux prendre une 750W.<br /> Clair qu’une 1500w ou même 1000w, c’est trop.
jvachez
Attention ! Nvidia a annoncé que la RTX 3080 est 2 fois plus performante que la RTX 2080 pas que la RTX 2080 Super ! Ils sont malins ils ont sauté une génération.
kyosho62
884×336 50.3 KB
tfpsly
+1 sur les PSU souvent sur-dimenssionnées.<br /> J’utilise en général Outervision.com PSU calculator et je tient souvent vers 430W.<br /> Sauf avec cette 3080, effectivement une config avec un 3700X et ce GPU demanderait 522W, soit une alim 572W pour avoir de la marge.<br /> La même config avec une 2080Super tirerait 450W, soit une alim de 500W.<br /> Cette 3080 a l’air gourmande
jaceneliot
Salut ! Tu es sûr de cette info ? Justement, de mémoire, c’était le fait d’avoir une alimentation à moitié utilisée qui faisait baisser le rendement. J’aimerais bien avoir une source fiable, tu en aurais une ? Je trouve aucune information.
jaceneliot
Ça change que de 10 % à peine au final. On reste loin du compte, là on parle plus de 60 %.
jaceneliot
Oh merci beaucoup ! Mais quelle est la source stp ?
Niverolle
«&nbsp;En moyenne, la RTX 3080 arrivait à battre de 62 % la RTX 2080 SUPER sur les jeux ne supportant pas le DLSS&nbsp;» ==&gt; De mémoire le TGP de la 2080S est de 200W et celui de la 3080 de 320W, soit une inflation équivalente. Donc si ces données sont exactes, cela voudrait dire que le saut de gravure n’aura pas apporté grand chose de ce coté. C’est bien dommage car griller 500W pour une simple activité ludique, c’est pour moi une grosse barrière psychologique (et là je parle pour le PC au complet, pas juste la carte graphique) !
jaceneliot
Bon faut quand même faire gaffe avec ces calculateurs. Beaucoup augmentent considérablement le besoin, souvent ceux des sites qui vendent des alimentations, comme par hasard.<br /> D’autres font de mauvais calcul. J’ai remarqué que beaucoup se trompent et utilisent le TDP des processeurs au lieu de la consommation, ce qui peut être dangereusement plus bas. Exemple avec un Ryzen 3700x, qui ne consommerait que 65 W. Sauf que c’est TDP, sa consommation peut grimper à 120 W.
jaceneliot
Attention à ne pas confondre le TDP et la consommation électrique, ces deux valeurs n’ont absolument aucun rapport. Enfin si, mais vague et peu consistant.<br /> La consommation c’est le courant tiré par la carte, le TDP uniquement sa dissipation thermique. Je pense que c’est la consommation électrique qui est pertinente dans ce cas, et elle reste à vérifier avec les tests. Mais si effectivement les cartes consomment 50 % d’électricité en plus, ça signifie que Nvidia aura menti pour la deuxième fois, après avoir menti sur la puissance des cartes.<br /> Quant aux 500 W, il faut les relativiser je pense. Tu utilises déjà pas 500 W sur tous les jeux, ni en permanence. Entre les zones plus calmes, les menus du jeu, tu es pas constamment à fond. Encore moins si tu limites les FPS aux hertz de ton écran. Imaginons que tu joues 3 heures par jours, environ 280 jours par année, ça te fait 420 kWh par année, soit environ 63€ de facture sur l’année. Je connais des hobbies plus cher personnellement. Certes tu rajoutes le prix de la config et les jeux, mais bon, y a pire que la consommation quoi.
kyosho62
https://www.plugloadsolutions.com/80PlusPowerSupplies.aspx#
Orolco
Quand on voit les tarif annoncé pour la génération 30xx en terme de rapport perfomance prix , c’est absolument impressionant. vivement la sortie
Zakalwe
Il faut comprendre un truc. Une alimentation poussée à 70% durera moins longtemps qu’une poussée à 50-40.
k43l
En plus de la gravure, est ce qu’il y en terme d’architecture pas une évolution ?
Niverolle
Oui et il ne faut pas confondre le TDP (dissipation de la puce grapique) et le TGP (dissipation de la carte complète). Faute de mieux, et en attendant plus de tests, on doit se contenter des TGP officiels.
Niverolle
jaceneliot:<br /> soit environ 63€ de facture sur l’année<br /> Tout à fait, mais ce n’est pas une question financière, mais plutôt la consommation totale si tout le monde s’y met; il se dit (je n’ai pas vérifié si cela est plausible), qu’il faut pas moins de 10 réacteurs nucléaires !?! Bref bien loin du mantra «&nbsp;l’énergie est notre avenir, économisons là&nbsp;»
kervern
c’est ce que je me disais y a encore peu de temps, sauf que que maintenant ce n’est plus vrai, de la même facon c’est pareil sur des variateurs moteurs, aprés sur du produit chinois basic c’est surement encore le cas !
Niverolle
Il y a bien une évolution, mais il semble que le bilan soit très limité en terme d’efficacité énergétique (sous réserves que les données sur lesquelles je base mon raisonnement soient exactes).
jaceneliot
Oui alors c’est sûr. Après, honnêtement, le jeu sur ordinateur représente une goutte d’eau dans la consommation d’énergie totale. Par rapport au chauffage, au transport et à l’alimentation, c’est totalement négligeable. Je pense pas qu’il soit utile de se focaliser ou culpabiliser pour cela. Je pense que quelqu’un dont le loisir est le jeu vidéo consomme moins d’énergie qu’une personne qui se déplace chaque jour de 25km pour faire son loisir.
Niverolle
+1 !
Bombing_Basta
Non c’est vrai pour n’importe-quelle bonne alim.<br /> Plus tu charges une alim, plus elle chauffe, plus son rendement baisse.<br /> Moins tu charges une alim, plus le rapport entre l’énergie qu’elle consomme elle-même (et encore une fois qui part en chaleur) et l’énergie qu’elle fournit à la charge augmente, moins bon est son rendement.<br /> Je me permet de citer Kyosho 62 :<br /> kyosho62:<br /> https://clubic-discourse.s3.dualstack.eu-west-3.amazonaws.com/original/3X/b/5/b54244c77ea6394ea4300099e31a3b2d2ba2d1dc.jpeg<br /> Les «&nbsp;chinoises&nbsp;» si tant est que toute les alims ne sont de toute façon pas fabriquées en Chine, sont seulement pires car elles chauffe plus au repos et encore plus en charge «&nbsp;lourde&nbsp;»…<br /> Voilà pourquoi le meilleur rendement est entre 50 et 80% environ, car son électronique ne brûle pas «&nbsp;bêtement&nbsp;» des électrons pour alimenter une charge minable et ne chauffe pas assez pour baisser en rendement.<br /> jaceneliot:<br /> Oh merci beaucoup ! Mais quelle est la source stp ?<br /> Les normes 80+ pour les alims PC.<br /> Cette norme a été mise en place pour assurer un minimum de rendement à certaines valeurs de charge.<br /> Incitant les constructeur à des composants plus qualitatifs dans les alims.<br /> Au passage une alim avec du «&nbsp;cable managment&nbsp;» et donc des prises rapides aura toujours un moins bon rendement qu’une même alim avec des câbles soudés à la carte mère car les connexions rapides amènent des résistances de ligne plus importantes, et donc des pertes en effet joule plus importantes.
narco
«&nbsp;La RTX 3080 apparaît environ 25 % plus rapide que la RTX 2080 Ti sous 3DMark Firestrike (Performance et Extreme)&nbsp;» 25 %, c’est bien maigre comparé à ce que nous a annoncé NVIDIA lors de la présentation.
Dahita
Tu t’exites tout seul camarade.<br /> «&nbsp;Les gens&nbsp;» c’est toi et moi deja, et comme on n’est pas completement idiot, on ne va pas acheter une alim de 500 watts qui sera pile ce qu’il faut en charge. autant acheter une alim un peu plus costaud, comme le precise Bombing Basta, pour avoir de la marge.<br /> Tu vois, tout s’explique
ygloo_one
En l’état, c’est un peu décevant part rapport à l’annonce +60% au lieu de +100%.<br /> Mais c’est pas mal, sachant que c’est moins cher…<br /> Après dans l’annonce, je pense qu’il évoquait le 4K en RT + DLSS.
Blackalf
Bombing_Basta:<br /> Les normes 80+ pour les alims PC.<br /> Cette norme a été mise en place pour assurer un minimum de rendement à certaines valeurs de charge.<br /> Incitant les constructeur à des composants plus qualitatifs dans les alims.<br /> Ce n’est pas forcément vrai pour toutes les marques, parce qu’il existe des alimentations Advance et Heden certifiées 80+, or les connaisseurs savent bien que ces marques ne valent rien <br /> La certification 80+ indique simplement qu’une alim qui consomme x Watts à la prise restituera au moins 80% de cette consommation à la sortie…mais le rendement n’est pas un gage de qualité ni de fiabilité globales ^^
Bibifokencalecon
Attendons les vrais tests (plus complets). J’imagine que certains fabricants vont aussi proposer des modèles «&nbsp;OC&nbsp;». Pour la consommation énergétique, dans le très haut de gamme, c’est toujours très élevé. Mais il faut se rappeler que c’est une vitrine technologique.<br /> Dans les faits, le marché pour ce type de carte n’est pas très élevé. Ce sont surtout les modèles en dessous (milieu et haut de gamme) qui seront vendus. Plus abordables surtout et suffisant pour une grande majorité des joueurs ayant besoin de mettre à jour leur configuration PC.
jaceneliot
Merci c’est intéressant !
jaceneliot
Ca change rien à ce que j’ai dis. Un ordi avec un Ryzen 3600 + RTX 2060 consomme quoi, 400 W ? Quand on voit le nombre de tests/mise en avant d’alimentations de 750-1200 W. Ca reste ridicule. Une alimentation de 650 W est pertinente pour 80 % des joueurs je pense. Encore plus depuis que le SLI est mort.
Dahita
Ci-dessous la consommation electrique par carte d’apres 3DGuru<br /> Guru3D.com<br /> GeForce RTX 2080 Founders review<br /> We review the GeForce RTX 2080 founders (reference) edition. The little sister of the Ti model still packs some serious punch as it takes on the 1080 Ti anywhere and everywhere. Of course, the RTX 208... Hardware Setup | Power Consumption<br /> Tu remarqueras qu’ils recommendent une alim de 600 Watts pour la 2080, sachant que la carte consomme moins qu’une brave Vega 56 et 64.<br /> Donc oui, une bonne alim de 750 watts pour le comfort, ca choque pas. Quand tu dis «&nbsp;tu arrives à 400 W-500 W maximum. Les gens devraient juste réfléchir et sortir leur calculette 5 minutes parfois&nbsp;», ben non, «&nbsp;les gens&nbsp;» ont raison.
Bombing_Basta
Blackalf:<br /> La certification 80+ indique simplement qu’une alim qui consomme x Watts à la prise restituera au moins 80% de cette consommation à la sortie…<br /> Oui on appelle ça un rendement minimum demandé donc ^^<br /> De plus cette certif n’est pas une norme de stabilité à la base mais de rendement, de plus il me semble que comme beaucoup de certifs de ce genre, c’est auto-validé alors bon… faut prendre des alims testées (et pas des alims envoyées par le fabriquant au testeur de préférence).<br /> D’autant que ce n’est pas une norme légale étatique mais industrielle et crée par des industriels.<br /> Ensuite il y a plusieurs niveaux à cette certif, 80+, puis 80+ bronze, silver et gold, avec chacune un rendement minimum supérieur à la précédente.
jaceneliot
Merci pour le lien, c’est intéressant. Par contre tu en tires le mauvais enseignement. Prenons une carte bien haut dans le classement (j’exclus les SLI bien-sûr, en plus ça n’existe plus). la VEGA 64, véritable gouffre. Tu y ajoutes allez 120 W d’un 3700x OC. on arrive à 450 W. Rajoutes 50 pour la carte-mère, disons 50 W pour le reste pour être large. Okay, 550 W. Une alimentation 620-650W irait bien. 750 W si on veut vraiment la sécurité. Mais quid des alimentations hyper mise en avant de 1000, 1200, voir 1500 W… Et toutes les 800 W ? Et c’est pour une des pires CG. Une carte moyenne, celles qu’ont 85 % des joueurs, comme la 1070 ou la 2060, c’est environ 150-170 W. Donc 160 W de moins que ce que je disais plus haut. Donc théoriquement moins de 400 W. Donc une alimentation de 500-550 W permet une parfaite exploitation. Mon propos reste donc exact pour l’écrassante majorité des joueurs : les alimentations au-dessus de 750 devraient être rares et la majorité devraient être entre 500 et 620 W. C’est un fait.
juju251
jaceneliot:<br /> Ca change rien à ce que j’ai dis. Un ordi avec un Ryzen 3600 + RTX 2060 consomme quoi, 400 W ? Quand on voit le nombre de tests/mise en avant d’alimentations de 750-1200 W. Ca reste ridicule. Une alimentation de 650 W est pertinente pour 80 % des joueurs je pense. Encore plus depuis que le SLI est mort.<br /> En effet 650Watts suffiront largement pour quasiment tous les usages (sauf multi GPU de l’extreme).<br /> Plus important encore que la puissance «&nbsp;brute&nbsp;» que peu sortir l’alim, il faut surtout regarder la répartition des intensités maximales selon les tensions.<br /> Exemple, j’ai une Seasonic Focus GX 550 qui est donné pour 550 Watts (logique jusque là).<br /> Sur le rail 12 Volts, elle peut sortir … 45A, soit 540 W (!)<br /> Et il est fort possible que l’alim ne se mettent pas en sécurité à 550Watts tout pile si on additionne la puissance consommée sur les autres rails.<br /> J’ai eu une Antec Earthwatts 500 (base … Seasonic) qui a alimenté pendant plus de 12 (!) ans un Q6600 overclocké avec pendant un moment un CPU poussé à 4.1 GHz (ezt un très gros vcore) et 2x HD 4850 en crossfire, autant dire que ça tirait quelques ampères, l’alim n’a jamais bronché.<br /> D’ailleurs, en parlant Antec Earthwatts, une 380 pouvait délivrer 450 Watts sans trop de soucis (testée pendant une heure à cette puissance), cf :<br /> http://www.x86-secret.com/dossier-36-Alimentations_ATX_2008.html
newseven
Pour le prix c’est quand même bien.<br /> Déjà 25 % à 35 % fois plus rapide qu’une rtx 2080 ti pour pratiquement la moitié du prix.<br /> Pour vrai je m’attendais à pas plus de 20 % mais là Nvidia a fait un coup de maître.<br /> Mais ça confirme mes doutes sur la nouvelle puissance des cuda cores .<br /> Mais les drivers sont tout nouveau donc ils va prendre de la maturité avec le temps .<br /> Bonjour ou soir jaceneliot .<br /> Mais tout les alim ne sont pas axé sur le gamins d’autre sont optimiser pour les processeurs .<br /> Le problème c’est qu’un multimètre numérique ou un tensiomètre donne une résulta moyen pas cycle .<br /> Mais avec un oscilloscope on peut très bien voir les micros fluctuations entre les tensions .<br /> Même avec une tension moyen de 200w il peut y avoir des piques de 450w et c’est là le problème .<br /> C’est la raison de l’utilisation VRM sur les composant électronique pour réduire au maximum que possible les fluctuations de tension .<br /> Le nombre de Phase sur une carte mère ou une carte graphique n’a rien avoir avec la consommation mais ces une régulateur de tension pour minimiser la fluctuation maximal et minimal .<br /> La fin de l’année 2020 est vraiment incroyable
Dahita
jaceneliot:<br /> Merci pour le lien, c’est intéressant. Par contre tu en tires le mauvais enseignement.<br /> Un acronyme pour toi: LOL.<br /> jaceneliot:<br /> Plus une carte graphique à environ 200 W, tu arrives à 400 W-500 W maximum. Les gens devraient juste réfléchir et sortir leur calculette 5 minutes parfois.<br /> C’est ce postulat que je commentais, et non une hypothetique alim a 1200.<br /> Une alim sous les 600 watts n’est pas recommendee pour une config avec une 2080. Point.
kervern
3 à 4% de différence de rendement, si c’est cela ton efficacité, sur du 80plus milieu de gamme on a des variation de 2% ! sur du 1Kw t as 20W une bonne grosse lampe led !
Bombing_Basta
Pourquoi t’es vener?
kervern
pourquoi je serais vénére <br /> t ouf toi
juju251
newseven:<br /> Mais tout les alim ne sont pas axé sur le gamins d’autre sont optimiser pour les processeurs .<br /> Qu’est-ce que tu veux dire par là ?<br /> Tout ce qu’une alim «&nbsp;voit&nbsp;» c’est une charge sur le 12V. Que ce soit un CPU ou une carte graphique, cela ne change rien.<br /> newseven:<br /> Le nombre de Phase sur une carte mère ou une carte graphique n’a rien avoir avec la consommation mais ces une régulateur de tension pour minimiser la fluctuation maximal et minimal .<br /> Non, le régulateur de tension est là pour délivrer une tension nécessaire au bon fonctionnement de la charge, quelque soit le courant consommé. Il n’a absolument pas pour mission de limiter la fluctuation d’intensité, ce qui n’aurait d’ailleurs aucun intérêt.<br /> Et si, le nombre de phases sur une carte mère a à voir avec la consommation, du moins de manière indirecte : Plusieurs phases = moins de courant par phase et donc il n’y a pas besoin de mettre des composants énormes pour tenir la même intensité.<br /> P.S. : Je sais que la bonne formulation est «&nbsp;intensité du courant&nbsp;», mais j’ai fait le choix d’utiliser «&nbsp;courant&nbsp;» et «&nbsp;intensité&nbsp;» alternativement pour éviter les répétitions.
3615Buck
LOL les gens qui chouinent parce qu’on n’a pas 100% de hausse de performances d’une génération à l’autre…<br /> Si vous croyez aux promesses du marketing, vos irez de désillusion en désillusion.<br /> Nvidia comparait la 3080 aux 2080, pas aux 2080 S ou TI.<br /> 50% de hausse entre deux générations, c’est énorme. Surtout en baissant le prix. Intel vous a habitués à moins de 10% entre 2 générations depuis +/- 10 ans.<br /> Ça reste cher, oui. Mais le HDG Nvidia, c’est un GPU, de la mémoire ultra rapide, une carte, etc. alors que le HDG Intel, c’est juste un CPU. Et Intel doit avoir payé bien moins en R&amp;D que Nvidia au cours de ces 10 dernières années.<br />
newseven
C’est pour avoir un meilleur contrôle sur la fluctuation de la tension parce-que plus que l’on augmente la fréquence du processeur plus il devient instable .<br /> C’est sur et évident qui à aussi une augmentation énergiquement du voltage .<br /> C’est comme une voiture sans contrôle la vitesse ne sert a rien.<br />
Delta243
Oui y’a une évolution cœurs Rt 2 ème génération cœurs tensor 3 ème génération etc à lire sur le site officiel
Voir tous les messages sur le forum

Actualités du moment

Le pack tablette Lenovo Tab M10+ avec une coque de protection et sa station d'accueil à prix choc
Huawei annonce les versions Pro de ses écouteurs Freebuds et Freelace
Le très attendu Hyrule Warriors : L'Ère du Fléau déjà en précommande à seulement 49,99€
Le Surface Duo de Microsoft se lance aux Etats-Unis, à partir de 1 399$
Bon plan Switch : Super Mario 3D World + Bowser's Fury Nintendo Switch
Xbox Series X : vous croyiez tout savoir ? Voilà son packaging
Huawei annonce deux nouvelles montres connectées, la Watch GT 2 Pro et la WatchFit
Les transferts en cryptomonnaies ont augmenté de 55% en un an en Afrique
Huawei présente deux nouveaux PC portables, le MateBook X et le MateBook 14
Pour Bruno Le Maire, les USA ne veulent tout simplement pas de la taxe GAFA
Haut de page