La GeForce RTX 3090 en photo à côté d'une 2080... qui paraît toute petite

Nerces
Spécialiste Hardware et Gaming
24 août 2020 à 11h55
57
GeForce RTX 3090 vs RTX 2080 © @GarnetSunset

Premières photos d'une monstrueuse RTX 3090 et d'un tout petit connecteur d'alimentation douze broches. Contraste, contraste…

Dans quelques jours, NVIDIA devrait dévoiler sa nouvelle gamme de cartes graphiques basées sur l'architecture Ampère. Attendue pour le 1er septembre, cette présentation officielle sera l'occasion de clarifier certains points et de confirmer toutes les dernières informations.

GeForce RTX 3090 vs RTX 2080 © @GarnetSunset

Une carte graphique « triple slot »

Ainsi, à la faveur du week-end, nous avons pu découvrir ce qui semble être les premières photos d'une GeForce RTX 3090. Publiées sur Twitter par @GarnetSunset, les photos de la nouvelle carte graphique viennent confirmer le côté « monstrueux » du futur fer-de-lance de la marque.

La RTX 3090 trône effectivement aux côtés d'une « petite » RTX 2080. Rappelons que cette dernière mesure presque 27 centimètres de long, ce qui laisse augurer d'une RTX 3090 à plus de 32 centimètres, mais le plus remarquable est cependant à chercher ailleurs.

En effet, on repère aisément une équerre de « triple largeur ». Autrement dit, la RTX 3090 occupera trois emplacements PCIe sur votre PC. La faute sans aucun doute à un système de refroidissement particulièrement costaud.

Seasonic adaptateur RTX 3090 © Seasonic

Alimentation 12 broches « compacte »

Parallèlement à la publication de ces photographies de la nouvelle GeForce, nous avons pu voir le premier module imaginé par Seasonic afin d'adapter les connecteurs PCIe des alimentations actuelles aux RTX 3xxx. Il faut effectivement rappeler qu'au moins les cartes haut de gamme auront besoin d'un connecteur d'alimentation 12 broches.

Seasonic a donc imaginé un adaptateur permettant de combiner deux câbles PCIe actuels et de les brancher sur l'unique port 12 broches des RTX 3xxx. Rien d'exceptionnel évidemment, mais la chose interpelle car le port 12 broches en question est très compact, plus petit que les ports 8 broches des cartes RTX 2080 par exemple.

Soulignons enfin que Seasonic certifie cet adaptateur pour un maximum de 850 watts, ce qui pourrait ne pas être si éloigné des recommandations matérielles pour une RTX 3090.

Seasonic 12 broches © Andreas Schilling

Nerces

Spécialiste Hardware et Gaming

Spécialiste Hardware et Gaming

Tombé dans le jeu vidéo à une époque où il fallait une belle imagination pour voir ici un match de foot, là un combat de tanks dans ces quelques barres représentées à l'écran, j'ai suivi toutes les év...

Lire d'autres articles

Tombé dans le jeu vidéo à une époque où il fallait une belle imagination pour voir ici un match de foot, là un combat de tanks dans ces quelques barres représentées à l'écran, j'ai suivi toutes les évolutions depuis quarante ans. Fidèle du PC, mais adepte de tous les genres, je n'ai du mal qu'avec les JRPG. Sinon, de la stratégie tour par tour la plus aride au FPS le plus spectaculaire en passant par les simulations sportives ou les jeux musicaux, je me fais à tout... avec une préférence pour la gestion et les jeux combinant plusieurs styles. Mon panthéon du jeu vidéo se composerait de trois séries : Elite, Civilization et Max Payne.

Lire d'autres articles
Vous êtes un utilisateur de Google Actualités ou de WhatsApp ? Suivez-nous pour ne rien rater de l'actu tech !
google-news

A découvrir en vidéo

Rejoignez la communauté Clubic S'inscrire

Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.

S'inscrire

Commentaires (57)

mamide
Les versions customs sont libres d’adopter le connecteur PCIe … mais du coup les 3 connecteurs PCIe sont justifiés puisqu’on parle d’une consommation énorme qui peut atteindre les 350 Watts voire même 400 Watts ???<br /> Une RTX 2080 Ti consomme 250 Watts en 12nm et la RTX 3090 en 7nm consomme 100 Watts de plus.<br /> ça doit être un vrai monstre et le nombre de transistors devrait exploser …<br /> Donc un PC avec un i9 10900K et RTX 3090 va consommer plus de 600 Watts
patouf26
La taille et la chauffe de ces cartes devient vraiment aberrant…On est au bout de l’évolution technologique.<br /> la chauffe d’une carte comme la RTX 2070 super est déjà beaucoup trop élevée, un vrai grille pain. Jouer l’été en temps de fortes chaleurs devient très difficile.<br /> On peut installer une clim mais ce n’est pas écologiquement responsable… et cela deviendrait le comble du ridicule.<br /> Le coût des systèmes de refroidissement devient important dans nos PC, c’est du grand n’importe quoi.
patouf26
Les cartes sont posées sur le même plan, je pense que c’est à la même échelle.
fawaz
Même taille d’equerre et même taille de pci express sur la photo des cartes retournées. Ce n’est pas un photo montage.
nico54m
En réponse à patamigo<br /> C’est bien la même échelle : la distance entre l’équerre et l’extrémité du port PCI-E est la même sur les 2 cartes. C’est vraiment énorme comme dimension, ça va pas rentrer dans tous les boîtiers !
cirdan
L’observation des ombres ne laisse pas supposer un montage.
TofVW
Physiquement, en hauteur elle ne rentre pas dans mon boîtier car elle va buter contre la paroi du PC.<br /> Financièrement, elle ne rentre pas dans mon compte en banque car elle va buter contre le plafond de mon découvert autorisé.
jaceneliot
Je vais faire une remarque qui va être certes piquante, mais malheureusement justifiée :<br /> Quitte à repêcher la moitié de vos articles sur d’autres sites, vous ne voudriez pas au moins engager un stagiaire à plein temps qui soit un minimum efficace ? Parce qu’en temps que simple lecteur, on a déjà tous lu cette news ailleurs y a 3 ou 4 jours il me semble. Fin, pompez si vous voulez, mais au moins essayez de produire les articles le même jour quoi…
TotO
Il est vrai que sur la seconde photo, il y a une différence de 5% sur la taille du connecteur PCI express… Et la perspective peut interroger.
_Reg24
Belle bête, plus qu’a attendre les annonces officielle (sauf erreur dans une semaine) avec les performances, les prix, et les dispo.
neoweiter
Pas un montage du tout. Regarde les ombres portées qui se chevauchent, c’est une vraie photo.
jereffuse
Les premières cartes graphiques à 10K
SlashUzero
C’est «&nbsp;insane&nbsp;». j’aurais le fric ,j’aurais pas le même discours. Ils ont pris vraiment la plus petite 2080, meme si c’est vrai que la 3090 est un peu n’obese.Je vais ptet attendre la generation super pour sauter une generation #jeudepuce…Me suit un peu fait avoir avec son rtx et une 2080 a peine plus puissante qu’une 1080ti, les boules…Du coup toujours en 40fps en 4K et une Vram aux abois.Rachetez en une qui disait…
Black_Scorpion
C’est un montage la taille du connecteur le confirme, les normes sont là, ils ne peuvent pas faire n’importe quoi.
Theodri
Ouf j’ai une Alim Corsair 650W Gold, je suis limite, heureusement que mon boitier est assez grand, un pote m’avait préché l’utilité des boitiers mini atx, j’ai bien fait héhé<br /> Prête à être accueillie «&nbsp;ma petite&nbsp;» future RTX 3090
VahineCacao
Après on parle quand meme de la 3090, les autres 3000 seront probablement loin d’etre aussi énormes
JerryKhanFury
Ce n’est pas du 7nm de TSMC mais du Samsung 8nm… donc pas mieux que du 10nm…<br /> ouais je sais c’est confus.
newseven
Même le connecteur pcie est trop trop sortie de la carte vs la plaque de soutien de la carte .<br /> Fake<br />
Blap
Des cartes aussi/plus cheres existaient bien avant
panta
il me semble avoir vu une version avec trois fan , peut être la titan rtx encore plus grande<br /> enfin je ne sais trop bien ?<br /> pour faire du multi-carte cela va devenir compliqué , opter pour un open frame !!
Blap
C’est ce qu’on appelle une distorsion optique, phénomène tout a fait normal. T’es au courant qu’un appareil photo ne va pas capturer le monde avec une perspective parallèle ?<br /> Cadeau :<br /> FotoForensics<br /> FotoForensics Analysis<br /> Digital photo forensics<br /> 29a.ch<br /> Forensically, free online photo forensics tools<br /> Forensically is a set of free tools for digital image forensics. It includes clone detection, error level analysis, meta data extraction and more.<br /> Rien d’anormal dans ces photos
newseven
Je ne suis pas convaincue.<br /> Pus que je regarde , plus que je suis mitigé .<br /> C’est le dos de la carte donc le connecteur pcie est sur le dessus et pas en dessous de la carte.
o_o_o
il va bientôt falloir des béquilles pour que les cartes en situation d’ obésité ne fassent pas plier la CM sous leur carrure démesurée
mamide
D’après quelques leaks … Si la carte est aussi grosse c’est parce que le GPU a 2 faces (Traversal Coprocessor) c’est pour ça qu’il y a 1 ventilo dans chaque face … pour refroidir l’avant et l’arrière.<br /> Donc ce n’est pas un montage … la RTX 3090 est vraiment grosse et très longue aussi elle va pas rentrer dans tous les boîtiers !
mamide
Multi-Carte ?? y a pas de SLI/Nvlink c’est mort en tous cas pour les gamers … les autres (professionnels) beh ils vont se débrouiller en casquant plus de fric.
panta
La fonder édition (éventuelle ) reposerai sur trois ventilo si ce n’est pas un fake!<br /> je serai plus sur la titan rtx qui reviendrai éventuellement moins cher que l’achat de deux cartes haut de gamme<br /> je suis professionnel donc achat en conséquence
thekiller3
oublies pas qu’un alim de 650W ne peut pas fournir réellement 650W. au mieux, elle peut donner 80% de 650W, soit 520W. et elle sera au max, risque de surcharge important. et une alim qui surcharge se mets en sécurité et meurt.
Blap
Tout depend de ton objectif et de l’angle dans lequel tu prends ta photo, certains sont catastrophiques sur ce point.
pitou-01
Une carte qui malgré sa taille peut rentrer dans mon boîtier mais qui risque fort de ne pas rentrer dans mon budget
Blackalf
o_o_o:<br /> il va bientôt falloir des béquilles pour que les cartes en situation d’ obésité ne fassent pas plier la CM sous leur carrure démesurée<br /> Ca fait plusieurs années qu’on vend des cartes graphiques avec baguette de soutien, tu ne le savais pas ? <br /> thekiller3:<br /> oublies pas qu’un alim de 650W ne peut pas fournir réellement 650W. au mieux, elle peut donner 80% de 650W, soit 520W.<br /> Faux, la norme 80Plus ne signifie pas qu’une alim ne peut pas dépasser 80% de rendement, parce que ça dépend du niveau de certification : une alim certifiée 80Plus Bronze dépasse déjà les 80% de rendement, que ce soit à 20, 50, ou 100% de charge<br /> Et les alims certifiées Gold, Platinum, ou Titanium dépassent les 90% de rendement
panta
Patamigo ; technologie PCIe 4.0
thekiller3
ok, d’accord, 90%. reste que, j’ai raison, elle ne donnera PAS 650W.
Blackalf
S’il n’y a que ça pour te rendre heureux
raiback
Bonsoir,<br /> La Titan RTX coute dans les 2800€
panta
salut , je suis professionnel , ce ne sera pas mon prix final<br /> ce soir sur ldlc par exemple l ancienne est à 2899 euro version client , je pense<br /> donc la nouvelle TT serai dans les mêmes prix , nvidia dans ce secteur resterai très honnête avec les professionnels<br /> cette carte est référencée professionnelle , pas de confusion
newseven
C’est quoi un professionnel ?<br /> Professionnel sur quoi !<br /> La nouvelle TT / tu parle bien sûr de la flamboyante Audi TT .<br /> Je blague.<br />
kyosho62
Les bonnes marques peuvent supporter 100w de plus dans la tronche.
jereffuse
Je sais bien sauf que ce n’était pas pour jouer, mais à usage pro donc pas le même pouvoir d’achat
raiback
@panta<br /> Bonsoir,<br /> Vous avez aussi des cartes graphiques pour les professionnels à 8000€, et jusqu’à 10000€
ares-team
Change d’écran…<br /> Chez moi, le PCI-E mesure 4,4cm pour la 3000 et juste 4,1cm pour la 2000
juju251
Oui, mais as-tu tenu compte de la déformation géométrique provoquée par l’objectif photo ?<br /> Les deux cartes n’étant pas situées au même endroit sur la photo, la déformation est potentiellement différente et donc les tailles perçues peuvent changer.<br /> Sinon, sérieusement, certains se prennent la tête pour ça ? On verra bien quand ce sera sorti.<br /> De toute manière, dans tous les cas, elle ne passera pas par chez moi, car "Si c’est Nvidia j’en veux pas"©. <br /> Je précise quand même pour la team 1er degré, que ma dernière phrase est évidemment un (semi, parce que bon, c’est Nvidia quand même ) troll.
fawaz
Question de perspective car les cartes n’ont pas la même épaisseur donc ne sont pas situées à même distance (et mon 27" QHD va très bien, merci de te soucier de son remplacement).<br /> Pour finir, la 2080 prise pour comparaison n’est pas si grande que ça. Plusieurs modèles même plus anciens ou d’une marque concurrente titillent les 30 cm.
jfrag
Je viens de changer de config et j’ai pris une grand tour (fractal design define 7XL), du coup ça va passer !<br /> Le souci maintenant c’est l’alim, 750W j’espère que ça va suffire…
mamide
ça reste une rumeur encore et comme Nvidia travaille toujours avec TSMC je préfère croire au 7nm c’est plus logique.<br /> Après si c’est du Samsung 8nm … c’est le C** entre 2 chaises !!!
mamide
y aura sûrement des modèles Customs qui vont consommer à mort genre si une Founders Edition consomme 350W alors une ROG Strix va consommer au moins 400 Watts si ce n’est plus !
kyosho62
Montre moi une carte graphique qui consomment 300w.
mamide
On parle de la RTX 3090 là …<br /> Sinon pour les cartes qui dépassent les 300 Watts je vais citer des exemples simples : Radeon VII et RX Vega 64 … elles dépassent largement les 300 Watts en Load !!
kyosho62
Guru3D.com<br /> AMD Radeon RX Vega 64 8GB review<br /> We review the Radeon RX Vega 64 with 8GB graphics memory. The new AMD graphics card has arrived, is released and we'll take you through the architecture and the performance numbers. Was it worth the ... Hardware setup | Power consumption<br /> Moi je vois 334w la config complète (en stressant que le GPU)<br /> Comme dab, les gens regardent les graphiques sans lire…
mamide
Arrête de prendre tes grands airs … tu me critiques sur un article que ta posté et lu toi-même … pour ma part j’ai dit qu’elle consomme 300 Watts je n’ai pas donné de lien d’article donc …<br /> En plus cette article se base sur une Carte AMD pas une Carte Custom … qui achète des cartes AMD avec Blower ??<br /> Je maintiens mes 300 Watts et plus …
juju251
C’est tellement pratique d’affirmer quelque chose et de réfuter ce que répond l’interlocuteur sans donner la moindre source …
opadm
600 wattsssss… c est deja la consommation d’une pompe a chaleur reversible. est ce qu’il la fournisse en option avec la carte video? 600 watss c’est enorme.
jaceneliot
Ton commentaire est correct, mais il fait aussi penser à tous ces imbéciles qui achètent des alimentations overkill en permanence. Combien de personnes achetant une config se sentent obligés de prendre 1000w, ou même 800w…
jaceneliot
Bon, les 600w c’est en utilisation intensive, ce qui est pas en permanence. Et ça reste à prouver. Plusieurs jeux n’utiliseront peut-être pas la carte à 100 %.
mamide
La Carte Graphique dans un jeu doit toujours être à 99% … si c’est pas le cas alors y a un problème quelque part souvent un bottleneck du CPU.<br /> Dans un jeu la CG fait en sorte de fournir le plus de FPS possible même si le jeu ne demande pas beaucoup de ressources graphiques alors le GPU compense en fournissant plus de FPS.<br /> Donc la seule raison qui peut stopper une CG c’est le processeur … bon y a des jeux mal optimisés qui n’exploitent pas la CG à plein gaz.<br /> Dans une machine il y a toujours un composant qui constitue un bottleneck et ça doit être la Carte Graphique et pas autre chose sinon y a un problème !
jaceneliot
Et non, malheureusement tu es dans l’erreur. La carte graphique devrait envoyer le même nombre d’images que le rafraîchissement maximum de l’écran, le reste est superflu et ne sert qu’à faire chauffer la carte et à gaspiller de l’énergie, tout en augmentant la facture d’électricité.<br /> Je comprends ce que tu voulais dire, mais de fait, les FPS supérieurs ne servent à rien. L’idéal est d’activer le limiteur de FPS intégré aux software AMD et Nvidia et de le capper 1 ou 2 fps en dessous des Hz maximaux de l’écran (pour éviter de sortir du G-Sync / FreeSync si présent).
juju251
mamide:<br /> La Carte Graphique dans un jeu doit toujours être à 99% … si c’est pas le cas alors y a un problème quelque part souvent un bottleneck du CPU.<br /> Ben voyons.<br /> Evidemment, tu tiens ça d’une source fiable que tu vas nous exposer ?<br /> mamide:<br /> Dans un jeu la CG fait en sorte de fournir le plus de FPS possible même si le jeu ne demande pas beaucoup de ressources graphiques alors le GPU compense en fournissant plus de FPS.<br /> Non, avec la synchro verticale (et des options permettant d’indiquer une fréquence d’affichage cible) la carte peut très bien limiter sa charge pour ne calculer que le nombre d’images que l’écran peut afficher ?<br /> Si l’écran a une fréquence d’affichage de 60 HZ, à quoi bon calculer 400 fps ? (je précise que ce n’est qu’un exemple)
mamide
Qui a parlé de taux de rafraîchissement ? tu as beau avoir un écran 60 FPS … ta carte va calculer 4000 FPS si elle peut le faire elle s’en fout de ton écran !!!<br /> Pour l’usage du GPU … on achète pas une RTX 2080 Ti pour l’utiliser avec un i3 et avoir un usage de 30 ou 40% dans les jeux … autant acheter une 1660 dans ce cas là !<br /> Moi je pars du principe que celui qui achète une carte d’une certaine gamme il sait quoi faire avec !<br /> Celui qui achète une RTX 2080 Ti c’est pour jouer en 4K pas en Full HD alors la fréquence de l’écran n’est plus un problème !<br /> Pour ceux qui ont une RTX 2080 ils jouent en 2K et 120 Hz ou 144 Hz font largement l’affaire !<br /> Pour les autres beh y a le Full HD et une carte moins puissante qui va être adapté !
mamide
Amigos … de nos jours y a des écrans à 360 Hz … qu’est ce que tu me racontes ?<br /> Et même si ta le Gsync et FreeSync … tu joues pas avec un écran de 60 Hz si ta une CG haut de gamme faut être un peu logique !
kyosho62
mamide:<br /> tu joues pas avec un écran de 60 Hz si ta une CG haut de gamme faut être un peu logique !<br /> Bah si, il est où le problème ?
jaceneliot
Oui bah il va de soit que dans ce cas, la carte graphique sera utilisée à 100 % pour un certain nombre de jeux. Mais tu crois que c’est la norme les 360Hz ? Ou que la moitié des joueurs sont toujours sur 60Hz, et l’autre moitié principalement sur 120 ou 144Hz ? On peut toujours sortir des technologies qui touchent 0.1 % des gens, mais je vois pas l’utilité. C’est comme ces testeurs qui disent «&nbsp;le i9 9900k est beaucoup mieux que le Ryzen 3700x…avec une 2080ti uniquement, en 4k&nbsp;». Aucun sens.<br /> Et tu serais étonné du nombre de gens qui ont une bonne configuration et un écran moyen ou ancien, et le nombre de gens avec un 144Hz qui oublient d’activer le plein potentiel de l’écran. Et même : une 2080 ti va donner pour beaucoup de jeux plus que 144Hz, donc elle sera pas utilisée à 100 %. Et même utilisée à 100 %, la carte ne consomme pas en permanence sa consommation maximale.
mamide
Oui je sais ça quand on voit les statistiques sur Steam … mais on parle de logique pas de ce que font les gens … y a bien des gens qui achètent des CG haut de gamme après ils se rendent compte que leur CPU ne suffit pas !<br /> Et en 2020 jouer avec un 4C/8T et une RTX 2080 Ti c’est de la folie mais ça existe !!!
juju251
mamide:<br /> Qui a parlé de taux de rafraîchissement ? tu as beau avoir un écran 60 FPS … ta carte va calculer 4000 FPS si elle peut le faire elle s’en fout de ton écran !!!<br /> Si tu actives la Vsync, la carte se calera sur la fréquence de rafraîchissement de l’écran, ni plus ni moins.<br /> Mais bon, sinon on dérive allégrement du sujet d’origine là …
jaceneliot
Oui, enfin on s’éloigne du débat. Mon point à la base c’était juste qu’une carte graphique ne consomme jamais son maximum en permanence, qu’on limite les FPS (on peut utiliser la moitié de la conso max) ou pas.
Voir tous les messages sur le forum
Haut de page

Sur le même sujet