Les spécifications des nouvelles GeForce RTX 3070, 3080 et 3090 ont « fuité »

Nerces
Spécialiste Hardware et Gaming
31 août 2020 à 09h42
33
NVIDIA GeForce RTX 3080

À quelques heures de partir en week-end, les spécifications presque complètes des nouvelles GeForce ont été évoquées.

Nous attendrons évidemment le mardi 1er septembre et la conférence de presse conduite par Jen-Hsun Huang pour affirmer haut et fort les spécifications techniques de la nouvelle gamme de cartes graphiques NVIDIA. Reste que la fuite est hautement crédible.

Tableau des spécificités techniques NVIDIA GeForce RTX 30xx © Videocardz.com
Tableau des spécificités techniques NVIDIA GeForce RTX 30xx © Videocardz.com

Le 12 broches exclusif aux Founder's Edition

Videocardz.com confirme diverses rumeurs en indiquant notamment que les GPU utilisés seront en gravure 7 nm et accompagnés de mémoire vidéo GDDR6 ou GDDR6X. Sans surprise, la connectique sera en PCI Express 4.0.

La plus puissante de la gamme, la RTX 3090, embarquera bien ses 24 Go de mémoire GDDR6X avec une bande passante de 936 Go/s. Notons que les cartes customs aperçues par nos confrères exploitent un duo de connecteurs d'alimentation 8 broches, le fameux 12 broches étant réservé aux produits Founder's Edition.

Même duo de connecteurs 8 broches pour les RTX 3080 customs, mais nous n'avons pas de précision quant aux modèles Founder's Edition cette fois. La carte ne sera accompagnée « que » de 10 Go de mémoire vidéo en GDDR6X avec une bande passante de 760 Go/s.

Enfin, le Petit Poucet de la gamme « Ampère », la RTX 3070, ne serait accompagné que de mémoire GDDR6. Il est question de 8 Go en 256 bits avec une bande passante de 512 Go/s. Aucun commentaire n'a été fait sur les connecteurs d'alimentation employés sur cette carte.

Il ne reste plus qu'à connaître les tarifs maintenant !

Source : Videocardz.com

Nerces

Spécialiste Hardware et Gaming

Spécialiste Hardware et Gaming

Tombé dans le jeu vidéo à une époque où il fallait une belle imagination pour voir ici un match de foot, là un combat de tanks dans ces quelques barres représentées à l'écran, j'ai suivi toutes les év...

Lire d'autres articles

Tombé dans le jeu vidéo à une époque où il fallait une belle imagination pour voir ici un match de foot, là un combat de tanks dans ces quelques barres représentées à l'écran, j'ai suivi toutes les évolutions depuis quarante ans. Fidèle du PC, mais adepte de tous les genres, je n'ai du mal qu'avec les JRPG. Sinon, de la stratégie tour par tour la plus aride au FPS le plus spectaculaire en passant par les simulations sportives ou les jeux musicaux, je me fais à tout... avec une préférence pour la gestion et les jeux combinant plusieurs styles. Mon panthéon du jeu vidéo se composerait de trois séries : Elite, Civilization et Max Payne.

Lire d'autres articles
Vous êtes un utilisateur de Google Actualités ou de WhatsApp ? Suivez-nous pour ne rien rater de l'actu tech !
google-news

A découvrir en vidéo

Rejoignez la communauté Clubic S'inscrire

Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.

S'inscrire

Commentaires (33)

SlashUzero
Le grand ecart entre 10go de vram et 24go, je comprend pas bien…Je vais attendre les super ou Ti si c’est ca…
SympathixLeGaulois
Bah on va déjà simplement attendre le prix avant de songer à changer … vu les specs, on risque de dépasser la barre fixée par les RTX 20x0 …
Pernel
Probablement une Titan
jaceneliot
Ceux qui disent que 10GB c’est pas ouf…j’ai jamais vu un jeu qui demandais une valeur proche de ça…<br /> Sinon, les TDP sont éclatés non ?<br /> Enfin, le PCI4 c’est que sur la plateforme X570 non ? Les autres seront limités ? Dur dur pour ceux qui se sont achetés des i9 9900k
ygloo_one
En puissance brute, la 3080 est à peu près une 2080Ti + 10%.<br /> La 3090 n’est que 20% au dessus de la 3080, contre +33% pour le Ti de la 2080. Avec un boost de bande passante et de ram. Donc elle sera probablement taillée pour faire de la 4K presque tranquille. Les 24Go pour un premier pas dans le 8K? mais pour quelles perfs ??? et utilité…<br /> Aie, la 3070 va-t-elle se positionner à 700E ?? avec la puissance d’une 2080 +20%?<br /> Et malgré le passage au 7nm, une fréquence qui stagne, les tdp explosent… ???
sebstein
PCIe est rétrocompatible, une carte PCIe 4 ira sans problèmes sur un socket PCIe 3. La seule chose, c’est que la carte sera limitée au débit du PCIe 3 ce qui, pour une carte graphique, n’est pas un problème.
oudiny
Il est fort possible aussi que Nvidia en ai gardé sous le capot en attendant une réponse de la concurrence enfin si on peut appeler ça une concurrence.
oudiny
Nous dirons qu’avec l’une de ces cartes tu es partis pour quelques années de tranquillité en terme de puissance technologique.
Thebadcrc
24Go c a l’air beaucoup comme ca mais c’est pas si aberrant. Certains de mes jeux me bouffent 99% des 11 Go de ma 2080Ti. On a vu que FS2020 taxe les 24Go de VRAM en 8K+TAA. OK c’est un peu extreme aujour’dhui mais ca montre qu’on n’est plus dans la science fiction.
jaceneliot
Je te jure que si on essaie de nous vendre la 8k sur des écrans de 27" je perds définitivement foi en l’humanité…déjà que la 4k c’est un jou jou sur ces tailles d’écran. Un moment faut être intelligent. On va pas s’en sortir si on veut toujours plus plus. Quand on voit la différence de taille entre les fichiers vidéos 1080p et 4k. Ridicule.
jaceneliot
Bon ça je le sais, ce que je disais c’est que, bon acheter des cartes à ce prix pour pas en utiliser 100 % des performances…
Dahita
On va attendre les TI comme d’habitude. L’ecart entre les modeles est trop grand, et je ne vois pas trop quel jeu justifie le besoin pour l’instant.
sebstein
Bah, justement, la différence entre le 3 et le 4 c’est la bande passante, mais puisqu’une carte graphique est loin de saturer la bande passante du 3, même avec du 3 tu pourras utiliser 100 % de la bande passante de ta CG et, donc, toutes ses performances. À l’heure actuelle, le «&nbsp;seul&nbsp;» intérêt du PCIe 4, c’est pour les SSD NVMe.
fawaz
Entièrement d’accord pour les écrans mais pour la réalité virtuelle, le monde du gaming a besoin des hautes résolutions.
twobib
Exact. Les 8 go de ma 2080 super sont clairement limitant dans certains jeux en VR des que tu tire un peu trop sur le Super sampling. N’ayant pourtant qu’un Rift S, soit l’une des plus petites résolutions.
artik1024
Sauf que de la puissance ne sert pas que pour de la résolution, mais aussi pour de la fréquence de rafraichissement (ou fps). Toutes les nouvelles TV OLED (LG par exemple) ont une dalle native 120hz, idem pour les écrans qui montent en 144hz ou plus. Donc 4k@120fps cest possible qu’avec du hdmi 2.1 présent sur ces nouvelles cartes, et biensûr de la puissance de calcul. Et là les 2080 ne suivent pas (elles ne suivaient d’ailleur plus pour plein de jeux en 4k ou il fallait passer en 30fps pour rester fluide).<br /> Donc ridicule pour toi, peut etre. Mais pas pour beaucoup d’autres. Oublie le 8k pour le moment, puisque ces cartes ne gèreront même pas les 60fps dans cette résolution. Je les trouve justement parfaitement adaptées a une sortie aujourdhui, et histoire que ça dure un peu quelques années.
Bibifokencalecon
Belle vitrine technologique et comme toujours, ciblant un marché de niche (pour la 3090 et 3080). La 3070 pourrait avoir un public plus large. Elle sera probablement bien adaptée pour du 1440p avec un excellent framerate ou encore de la VR, et j’imagine très satisfaisante pour du 4K.<br /> Pour le commun des mortels et pour la majorité des gamers casuals ou non, ce seront des cartes trop dispendieuses que j’imagine bien autour des 1000$-1500$. Je ne mets pas plus de 500$ dans un GPU, je la garde facilement un 4-5 ans, et je me considère comme un «&nbsp;gamer enthousiaste&nbsp;». Lorsque je renouvelle ma machine au 5-6 ans, je mets un budget entre 1500-2000$.
Bibifokencalecon
Tout dépend toujours du type de jeu et… du ressenti propre du joueur.<br /> Un joueur de Flight Simulator 2020 n’aura pas besoin d’un 120-144-240 fps de moyenne pour avoir une bonne expérience. Un 30 fps suffira en réalité. Mais il appréciera cela pour un Doom 3. Et globalement, à partir de 75 fps, quelque soit le jeu, je doute que la majorité des joueurs ressente réellement une gêne.<br /> Mais je suis d’accord pour pour la 8k. Ce ne sera pas pour tout de suite. L’intérêt reste faible, encore plus pour un usage Home Cinema. Il faudrait une dalle vraiment de grande taille et un salon avec un excellent recul pour profiter de cela (et en percevoir les avantages). Par contre, la 4k continuera à se répandre, et les contenus/jeux/applications à s’adapter à cette résolution.<br /> Pour la 4K, avec un recul de 3m, on orientera un acheteur vers un écran de 75" (187 cm). Alors imaginons pour la 8k…
philumax
Il faut attendre les nouveaux écrans OLED.
newseven
La différence de consommation entre la rtx 3080 et rtx 3070 est énorme.<br /> 220w / 320w<br /> J’espère que la puissance ne sera pas aussi énorme que la différence de consommation.<br /> Parce-que la rtx 3070 fera pitpit à coté de la rtx 3080 .
orphen1978
Moi j’ai lu que la 3070 equivalait a une 2080Ti qui est dans le vrai
bmustang
vous rirez moins quand la concurrence fera ses annonces, dénigrer sans savoir, cela n’amène à rien !
jaceneliot
Je disais ridicule la 8k, pas la puissance de ces cartes.
jaceneliot
D’accord avec toi pour l’utilité de la VR avec beaucoup de FPS en haute résolution. Par contre, le gaming a-t-il vraiment besoin de la VR ? C’est une autre question.
DLL2
Pas sur que des écrans OLED soivent adapter pour du jeu vidéo il y a toujours le problème de marquage de l’écran et quelque soit le jeu il y a presque toujours un hud fixe
mamide
Hein ??? RTX 3080 qui est à peine plus puissante qu’une RTX 2080 Ti et qui consomme presque 100 Watts de plus avec une gravure à 7nm ?<br /> Y a quelque chose qui cloche dans tout ça … Nvidia est quand même connue pour son Rapport Puissance/watts très élevé là c’est trop !
tangofever
220W/350W de vrai chaudières, les bouzins.
fawaz
Le gaming a clairement besoin de la VR : Assetto Corsa Competizione, DCS, HL Alix ou des jeux plus casuals comme Beat Saber. Difficile de revenir sur écran quand on y a goutté. C’est complémentaire des jeux classiques ou multi-joueurs adaptés aux écrans et s’en priver c’est passer à côté d’une expérience marquante et de 20% de que ce que peut proposer le monde du gaming.
oudiny
Ca fait 15 ans qu’on attend de la concurrence qu’elle se réveille … votre post est plus une prière que vous faite je ne vois que ça ! Moi je ne ris pas mais Nvidia oui et les clients pleurent et ça fait bien longtemps que c’est comme ça.<br /> Le Comptoir du Hardware – 27 Aug 20<br /> À l'aube des RTX 3000, Nvidia campe sur 80 % du marché<br /> Nvidia vs AMD, Nvidia vs AMD vs Intel, qui se trouve où à la fin du second trimestre, selon JPR ?<br />
jaceneliot
C’est un avis intéressant, c’était une vraie question d’ailleurs. Mon expérience VR se résume au test de deux casques à la FNAC, avec des «&nbsp;petits&nbsp;» jeux. J’avais été relativement bluffé par l’expérience, mais en tant que gros joueur, je me voyais mal utiliser ce périphérique en dehors d’un gadget pendant quelques heures.<br /> Cependant, je ne doute pas que ça va s’améliorer et que les jeux seront de plus en plus convaincants.<br /> Mais j’ai l’impression tout de même que le marché peine à décoller, et si je devais faire une prévision, je dirais que ça va se dégonfler et disparaître, comme les écrans et jeux vidéos 3D en leur temps, ou le SLI par exemple. Je peux me tromper en revanche.
philumax
J’ai commencé avec un CRT, passé au plat, beaucoup plus tard, à cause des pixels morts que je risquais de rencontrer. Je voudrais changer d’écran, mais les prix et les specs, m’intéressent pas ! J’attends le OLED. De plus, je suis en ADSL : je ne pourrais jamais vraiment profiter des nouveaux écrans. Si j’avais la fibre…
FredericJacques
D’un autre côté, j’ai une GTX1070 et je peux jouer à la plupart des jeux en mode Ultra 4K.<br /> Pour l’instant, à l’exception du ray tracing, pas trop de raisons de changer de carte.
Pernel
Il y a de la concurrence, il faut être de mauvaise foi pour dire le contraire.
Pernel
C’est le TDP pas la conso …
Blackalf
oudiny:<br /> Ca fait 15 ans qu’on attend de la concurrence qu’elle se réveille …<br /> Quand on n’a pas une vue d’ensemble qui s’étend sur 20 ans, il vaut peut-être mieux ne rien dire…étant donné que ça ne fait que 10 ans que Nvidia maîtrise enfin la chauffe et la conso de ses produits <br /> Indices : 2010, HD 5870 vs GTX 470
newseven
Oui c’est vrai ouf<br /> Parce que je veut pas dépenser une fortune pour remplacer ma bonne vieille gtx 1070 .<br /> Cette foi je vais essayer de me procurer la founder edition ( elle est trop belle ) si c’est possible ? ( canada ).<br /> Surtout que dans trois ans il aura encore de novelle architecture .<br />
Pernel
Bah on sera vite fixé pour les prix, dispo etc.<br /> Il y a des nouvelles archi quasi tous les ans de toutes manière, faut changer quand t’as besoin, moi j’attend avec impatience les 2 pour voir mais bon ça risque de piquer, mais ma 970 est fatigué.
oudiny
Mon dieu il s’agissait d’une réponse rhétorique qui ne demandait pas de réponse tant le poids de Nvidia est important depuis bien longtemps et qui explique le pourquoi du comment ! Merci de lire le lien dans un de mes posts plus haut. Et merci de ne pas prendre les gens de haut on est en droit d’écrire ce que l’on veut ici libre à toi de ne plus venir si le coeur t’en dit.
Blackalf
oudiny:<br /> Et merci de ne pas prendre les gens de haut on est en droit d’écrire ce que l’on veut ici<br /> Tu es libre d’essayer d’écrire ce que tu veux, nuance, et rien ne dit que ton message restera là…<br /> Et merci de réfléchir à qui tu t’adresses avant de donner ce genre de «&nbsp;conseil&nbsp;», de nombreux paltoquets arrogants ont commis la même erreur
Voir tous les messages sur le forum
Haut de page

Sur le même sujet