🔴 LE BLACK FRIDAY EN DIRECT ! 🔴 LE BLACK FRIDAY EN DIRECT !

Test ASUS TUF Gaming RTX 4080 16GB OC Edition : la reine de la 4K se fait encore plus imposante

Nerces
Spécialiste Hardware et Gaming
17 novembre 2022 à 17h42
33
ASUS TUF Gaming RTX 4080 16GB OC Edition © Nerces
© ASUS

Parallèlement à la sortie de la GeForce RTX 4080 Founders Edition, tous les partenaires de NVIDIA y vont comme toujours de leur(s) modèle(s) qui, en toute logique, seront plus simples à dénicher chez les revendeurs. Nous avons jeté notre dévolu sur l’ASUS TUF Gaming, une carte graphique imposante, dotée d’un refroidissement qui change beaucoup de celui du produit de référence.

ASUS TUF Gaming RTX 4080 16GB OC Edition
  • Performances excellentes
  • DLSS3 très efficace
  • Conception de qualité...
  • Discrétion en pleine charge
  • Échauffement limité
  • Très (trop) chère
  • Disponibilité à vérifier
  • ... malgré une taille énorme

Au moment de tester la GeForce RTX 4090, nous avons choisi de nous contenter de la seule Founders Edition du fait de l’orientation ultra haut de gamme de la carte. Aujourd’hui, la sortie de la RTX 4080 rebat un peu les cartes – sans mauvais jeu de mot – et nous avions à cœur de voir au-delà du seul design Founders Edition. L’ASUS TUF Gaming RTX 4080 16GB OC Edition s’en distingue, nous l’avons dit, par son système de refroidissement, mais également par une fréquence GPU revue à la hausse.

Vous le savez sans doute déjà, mais notre article consacré à une carte de « partenaire » n’a pas vocation à revenir sur l’architecture Ada Lovelace. Si vous souhaitez en savoir davantage sur les nouveautés matérielles et logicielles du bébé de NVIDIA, nous vous invitons à consulter le test de la GeForce RTX 4090 Founders Edition.

Fiche technique ASUS TUF Gaming RTX 4080 16GB OC Edition

Performances

Fréquence de base
2,21GHz
Fréquence Boost
2,62GHz
Processeurs de flux
9728
Mémoire vidéo
16Go
Interface mémoire
256-bit
Type de mémoire
GDDR6X
Consommation
320W

Affichage

Technologie(s) d'affichage compatible(s)
G-Sync
VR Ready
Oui
VirtualLink
Non
Définition d'affichage maximale
7680 x 4320 pixels

Connectivité

Sorties vidéo
DisplayPort 1.4a (x3), HDMI 2.1 (x2)
Connecteur(s) d'alimentation
PCI Express 16 Broches
Bus
PCI Express 4.0 16x

Caractéristiques physiques

Longueur
348,2mm
Largeur
150mm
Epaisseur
72,6mm
LED
LED RGB
Type de refroidissement
Actif (fansink)
NVIDIA GeForce RTX 4090 FE © NVIDIA
© NVIDIA

Le GPU AD103 et ses 45,9 milliards de transistors

À défaut, donc, de revenir en détails sur l’architecture Ada Lovelace au cœur de la carte, il est important de préciser les petits ajustements opérés par ASUS sur cette version TUF Gaming 16GB OC Edition. Bien sûr, il n’a pas été question de modifier la quantité de mémoire vidéo embarquée – 16 Go de GDDR6X à 22,4 Gbps – mais la fréquence de cette dernière n’a pas non plus changé. Il en va différemment du processeur graphique.

En effet, si le GPU AD103 reste le même avec ses 45,9 milliards de transistors, ses 9 728 cœurs CUDA, 76 processeurs de flux, 76 cœurs RT et 304 cœurs Tensor, les fréquences bougent. De base, on est à 2 210 MHz – sensiblement en hausse par rapport à la RTX 3080 Ti de génération Ampere – mais en boost, on passe de 2 505 MHz à 2 625 MHz, soit une augmentation d’environ 4,5%. À voir si celle-ci a un impact sur les mesures de performances.

specs 4080
Fiches techniques comparées des RTX 3080 Ti et RTX 4080 © NVIDIA

La TUF Gaming RTX 4080 16GB OC Edition en détails

Vous l’aurez compris, sur le strict plan des caractéristiques techniques, la TUF Gaming RTX 4080 16GB OC Edition ne change guère du modèle Founders Edition. En même temps, ce n’est pas surprenant dans la mesure où l’objectif est bien de proposer une carte comparable. Tous les partenaires de NVIDIA font d’ailleurs de même et privilégient plutôt la conception du système de refroidissement pour se démarquer de la société de Jensen Huang.

ASUS TUF Gaming RTX 4080 16GB OC Edition © Nerces
La RTX 4090 FE ferait presque « petite » à côté de la TUF Gaming © Nerces

Première originalité, la boîte dans laquelle est livrée la carte dispose d’angles « coupés ». Cela donne à l’ensemble une certaine originalité, même si cela ne change rien à l’usage. Dedans, on découvre une carte plus imposante que la Founders Edition : la TUF Gaming mesure ainsi 348,2 × 150 × 72,6 millimètres contre 305 × 137 × 60 mm dans le cas du produit NVIDIA. Forcément, elle aura encore un peu plus de mal à se glisser dans les boîtiers compacts.

ASUS TUF Gaming RTX 4080 16GB OC Edition © Nerces
ASUS TUF Gaming RTX 4080 16GB OC Edition © Nerces

Dissipateur, condensateurs et connecteurs d'alimentation des ventilateurs © Nerces

Il serait toutefois hypocrite de jouer les étonnés : ce genre de différences s’observait déjà sur la RTX 4090 et sur les générations précédentes. La carte est effectivement conçue pour intégrer une solution de refroidissement encore un peu plus musclée avec trois ventilateurs de 104 mm, celui du centre opérant en sens inverse des deux autres. Des ventilateurs placés au-dessus d’un imposant dissipateur en aluminium traversé par quatre caloducs.

ASUS TUF Gaming RTX 4080 16GB OC Edition © ASUS
Une conception qui change nettement du design des Founders Edition © ASUS

Ainsi équipée, la carte occupe 3,65 emplacements PCI Express, autant dire 4, mais elle dispose d’un refroidissement plus efficace et plus silencieux encore que celui de la Founders Edition. ASUS souligne les « condensateurs 20K de qualité militaire » employés avant de préciser qu’ils sont capables de tenir au moins 20 000 heures à 105° C. Le PCB semble assez proche de celui de NVIDIA et conserve notamment sa faible longueur.

ASUS TUF Gaming RTX 4080 16GB OC Edition © Nerces
ASUS TUF Gaming RTX 4080 16GB OC Edition © Nerces

À gauche, le ventilateur central et, à droite, le fameux connecteur 16 broches © Nerces

Entièrement noire, la backplate en aluminium dispose ainsi d’un large espace au niveau du troisième ventilateur avec pour objectif de laisser passer un important flux d’air. Le carénage de la carte – où sont fixés les ventilateurs – est pour sa part en plastique. Sobre, il intègre un logo GeForce RTX, mais la seule zone RVB est à chercher au niveau du logo TUF. Bien sûr, l’éclairage est ici gérable via Aura Sync – et désactivable – mais cela reste discret.

ASUS TUF Gaming RTX 4080 16GB OC Edition © ASUS
3 connecteurs DisplayPort 1.4a et 2 ports HDMI 2.1a © ASUS

Compte tenu du poids (2 365 contre 2 155 g pour la Founders Edition), ASUS livre un accessoire pour maintenir la carte en place. Notons un changement de connectique : ASUS est plus généreux que NVIDIA avec ses trois connecteurs DisplayPort 1.4a et ses deux ports HDMI 2.1a. Enfin, soulignons que contrairement à la génération Ampere, les cartes partenaires emploient la même alimentation que les Founders Edition : on retrouve donc l’unique port 12+4 et un adaptateur pour le connecter sur trois prises 8 broches classiques.

ASUS TUF Gaming RTX 4080 16GB OC Edition © Nerces
HWInfo est le premier logiciel à faire le point sur notre carte © Nerces

Protocole de test

Afin de faire honneur aux cartes graphiques de nouvelle génération, nous avons largement revu notre protocole de test en intégrant plusieurs jeux vidéo plus modernes. Bien sûr, la base reste la même en ce sens qu’il ne semblait pas utile de refondre la configuration mise en place.

ASUS TUF Gaming RTX 4080 16GB OC Edition © Nerces
ASUS TUF Gaming RTX 4080 16GB OC Edition © Nerces
ASUS TUF Gaming RTX 4080 16GB OC Edition © Nerces
ASUS TUF Gaming RTX 4080 16GB OC Edition © Nerces

Nous enchaînons ensuite avec les multiples onglets de CPU-Z © Nerces

Configuration de test

  • Carte mère : ASUS ROG Maximus Z690 Hero
  • Processeur : Intel Core i9-12900K
  • Mémoire : Kingston Fury DDR5-4800 CL38 (2x 16 Go)
  • SSD « système » : Kingston KC3000 2 To
  • Refroidissement : ASUS ROG Ryujin II 360
  • Alimentation : be quiet! Straight Power 11
ASUS TUF Gaming RTX 4080 16GB OC Edition © Nerces
Avant de conclure cet état des lieux avec GPU-Z © Nerces

Les logiciels mis en œuvre ont évolué. Nous sommes sur Windows 11 en version Professionnel 64-bit 22H2 22621.607. NVIDIA nous a fourni la dernière mouture de ses pilotes (526.72) afin que la RTX 4090 FE soit reconnue et notre plateforme Z690 exploitait les pilotes chipset Intel 10.1.18838.8284. Pour la Radeon RX 6900XT, ce sont les pilotes AMD 22.20.29.01 RC6 qui ont été employés.

ASUS TUF Gaming RTX 4080 16GB OC Edition © Nerces
ASUS TUF Gaming RTX 4080 16GB OC Edition © Nerces

L'adaptateur intègre 3 prises 8 broches, contre 4 pour celui de la RTX 4090 © Nerces

Qu’en est-il des performances ?

Vous avez pu le constater avec le test de la RTX 4080 de Colin, la Founders Edition est déjà une carte taillée pour la 4K. L’ASUS TUF Gaming RTX 4080 16 GB OC Edition étant, sur le papier, plus puissante encore, nous avons réduit les graphiques et comparé la carte aux GeForce RTX 3080 FE, RTX 3080 Ti, RTX 3090, RTX 4080 FE, RTX 4090 FE et Radeon RX 6900XT.

3DMark

ASUS TUF Gaming RTX 4080 16GB OC Edition © Nerces
Performances observées sur 3DMark © Nerces

Classique parmi les classiques, 3DMark permet d’évaluer rapidement le sous-système graphique d’un PC. Il ne s’agit cependant que d’un indicateur et il ne remplacera jamais des tests « réels ». De manière générale, les Radeon RX se comportent plutôt bien avec ce logiciel, mais les RTX 4080 frappent fort.

Notons le minuscule écart d’à peine 200 points sur la scène Port Royal et encore un peu moins sur TimeSpy Extreme. Un écart cependant à l’image de l’augmentation des fréquences de fonctionnement de la TUF Gaming.

Blender Benchmark

ASUS TUF Gaming RTX 4080 16GB OC Edition © Nerces
Performances observées sur Blender Benchmark © Nerces

Outil professionnel de rendu 3D, Blender dispose d’un module de mesure bien pratique. Un module qui permet à la génération Ada Lovelace de briller : elle écrase les Radeon RX RDNA 2 et il nous tarde déjà de tester les RDNA 3. La TUF Gaming prend, là encore, un très léger avantage sur la RTX 4080 FE.

Cyberpunk 2077

ASUS TUF Gaming RTX 4080 16GB OC Edition © Nerces
Performances observées sur Cyberpunk 2077 © Nerces

Vitrine technologique qui n’a pas encore beaucoup d’équivalents, Cyberpunk 2077 permet à la TUF Gaming de creuser un peu l’écart avec la RTX 4080 FE. Hélas, ce creusement est surtout perceptible en 1 080p, une définition inutile sur de telles cartes : en 4K, il n’est plus question que d’une image par seconde de différence.

Cyberpunk 2077 et le ray tracing

ASUS TUF Gaming RTX 4080 16GB OC Edition © Nerces
Performances observées sur Cyberpunk 2077 en mode ray tracing © Nerces

Cyberpunk 2077 reste de mise pour un second test cette fois focalisé sur le ray tracing. Il est activé en mode « ultra » et nous permet d’aboutir à des résultats… que nous ne nous expliquons pas ! La TUF Gaming prend le meilleur sur la RTX 4090 FE en 1 080p, mais ne peut tenir la cadence et se fait largement distancer en 4K. Problème, sur cette définition, elle est aussi débordée par la RTX 4080 FE. Bizarre.

Far Cry 6

ASUS TUF Gaming RTX 4080 16GB OC Edition © Nerces
Performances observées sur Far Cry 6 © Nerces

Sur le jeu d’Ubisoft Montréal, les choses rentrent toutefois vite dans l’ordre. Ainsi, Far Cry 6 montre une progression sensible – en 4K – entre les RTX 4080 FE, TUF Gaming RTX 4080 et RTX 4090 FE. Il ne vous reste plus qu’à choisir le nom de votre poison.

Forza Horizon 5

ASUS TUF Gaming RTX 4080 16GB OC Edition © Nerces
Performances observées sur Forza Horizon 5 © Nerces

Le magnifique Forza Horizon 5 vient confirmer la hiérarchie et les écarts observés sur Far Cry 6. Notre TUF Gaming s’en sort ainsi avec les honneurs et permet d’obtenir des courses merveilleusement fluides, même en 4K tous les détails à fond : l’avance est de 6 images par seconde sur la RTX 4080 FE.

Marvel’s Guardians of the Galaxy

ASUS TUF Gaming RTX 4080 16GB OC Edition © Nerces
Performances observées sur Marvel's Guardians of the Galaxy © Nerces

L’écart observe en 4K sur Marvel’s Guardians of the Galaxy est autrement plus subtil et si la RTX 4090 FE l’emporte haut la main, il n’y a que 2 images par seconde d’écart entre les deux concurrentes RTX 4080, à l’avantage de la TUF Gaming certes, mais seulement 2 ips.

Red Dead Redemption 2

ASUS TUF Gaming RTX 4080 16GB OC Edition © Nerces
Performances observées sur Red Dead Redemption 2 © Nerces

Une différence qui se retrouve presque sur Red Dead Redemption 2 : les arrondis étant ce qu’ils sont, l’écart paraît infinitésimal, mais on est en réalité tout juste à 100 images par seconde d’un côté alors que, de l’autre, on frôle les 102 ips. Cela dit, ce n’est évidemment pas ce genre d’écart qui fera pencher la balance vers l’une ou l’autre des cartes.

Total War Warhammer 3

ASUS TUF Gaming RTX 4080 16GB OC Edition © Nerces
Performances observées sur Total War Warhammer 3 © Nerces

Notre sélection s’achève sur Total War Warhammer 3 avec le choix de la scène « champ de bataille » pour mesurer les exploits de nos cartes. La RTX 4090 FE reste très loin devant et il faut particulièrement être sensible pour repérer une différence entre les deux RTX 4080.

De l’efficacité d’Ada : à cheval sur la conso ?

Nous avons peu évoqué la chose, mais en optant pour le processus 4N (ou 5 nanomètres) de TSMC, NVIDIA insiste autant sur la densité de transistors que sur la remarquable efficacité énergétique. Sans trop entrer dans les détails, NVIDIA précise qu’il est peut délivrer « les plus hauts niveaux de performance par watt ». Voyons cela.

Consommation électrique

ASUS TUF Gaming RTX 4080 16GB OC Edition © Nerces

Il est amusant de constater qu’au repos, ASUS semble avoir mieux optimisé les choses que NVIDIA et l’écart de 2 watts n’est pas mince quand on parle d’une consommation comprise de 8 à 10 watts. Les choses s’inversent toutefois en pleine charge.

Sur la scène TimeSpy Extreme de 3DMark, nous avons relevé un maximum de 314 watts sur la TUF Gaming quand la RTX 4080 FE plafonnait à 311 watts. Vous admettrez que l’écart est particulièrement faible, nettement moins important que la montée en fréquence.

Au passage, soulignons que la TUF Gaming est moins bruyante que la RTX 4080 FE : c’est simple, on ne l’entend pour ainsi dire jamais. Pour ne rien gâcher, la chauffe est identique : 64° C pour le GPU de la carte NVIDIA quand le modèle d’ASUS plafonne à 65° C.

Efficacité et « rentabilité »

ASUS TUF Gaming RTX 4080 16GB OC Edition © Nerces

Exprimé en euros, le prix public conseillé (MSRP) est représenté sur le graphique ci-dessus par les barres bleues. La valeur chiffrée est précisée à côté de chaque carte.

Entre les sorties des RTX 3000 et 4000, le taux de change euro/dollar a fortement changé, affaiblissant le ratio performances/prix des RTX 4000. En dollars, ce ratio est à 12,2 pour la RTX 4090 et 12,9 pour la RTX 3080.

Au-delà de sa consommation, il nous semble utile d’évoquer deux indicateurs de l’efficacité de la carte : les performances par Watt et les performances par Euro en prenant à chaque fois le résultat 3DMark TimeSpy Extreme. D’abord, en le divisant par la consommation enregistrée et, ensuite, en le divisant par le MSRP (en euros) au lancement de la carte.

La conclusion est singulière puisque les trois en présence – RTX 4090 FE, TUF Gaming RTX 4080 et RTX 4080 FE – font jeu égal : l’indice de performances/Watt vient se caler à 45 quand celui de performances/Euro est confortablement installé à 10.

Cela montre qu’au-delà de la taille des cartes Ada Lovelace, il y a une réelle efficacité énergétique. Cela montre aussi que le rapport qualité/prix est plus que correct même s’il reste éloigné de celui de la reine, la RTX 3080. Bien sûr, cet indice se base sur le prix public conseillé. Nous reviendrons sur la chose après quelques semaines de commercialisation. Juste pour voir.

ASUS TUF Gaming RTX 4080 16GB OC Edition © Nerces
Des performances impressionnantes, mais un prix qui l'est au moins autant © Nerces

ASUS TUF Gaming RTX 4080 16 GB OC Edition : l’avis de Clubic

9

Si eVGA a quitté le navire NVIDIA, ASUS reste fidèle à la marque. Sa TUF Gaming RTX 4080 16 GB OC Edition ressemble comme deux gouttes d’eau à sa vision de la RTX 4090 et se distingue de la Founders Edition par son système de refroidissement – à trois ventilateurs – et un encombrement maximal. Vous trouviez la carte de NVIDIA imposante ? Vous allez réviser votre jugement.

La société taïwanaise compense en partie par une excellente qualité de finition, un design tout en sobriété et une petite augmentation des fréquences de fonctionnement. Oh, pas grand-chose, mais de quoi grappiller encore quelques images par seconde alors que les composants principaux sont maintenus au frais sans perdre en discrétion.

Reste la délicate question des tarifs pratiqués. ASUS ne semble pas à blâmer, mais il est difficile de ne pas s’émouvoir quand le prix augmente de plus de 100 % en une génération. Considérant que vous êtes seuls maîtres de votre budget, nous n’avons pas sanctionné une carte autrement presque parfaite. Un jugement qui pourrait bien sûr être revu à l’aulne des sorties Radeon.

Les plus

  • Performances excellentes
  • DLSS3 très efficace
  • Conception de qualité...
  • Discrétion en pleine charge
  • Échauffement limité

Les moins

  • Très (trop) chère
  • Disponibilité à vérifier
  • ... malgré une taille énorme
Cet article contient des liens d'affiliation, ce qui signifie qu'une commission peut être reversée à Clubic. Les prix mentionnés sont susceptibles d'évoluer. 
Lire la charte de confiance
Soyez toujours courtois dans vos commentaires.
Respectez le réglement de la communauté.
33
16
Nerces
Précision utile, officiellement - ça été le tarif le jour de la sortie… mais sur combien de pièces ? - la carte est à 1 469 euros. Hélas, elle est actuellement et selon les boutiques qui la référencent entre 1 799 et 1 899 euros. Cela dit, elle est en rupture partout.<br /> Pour être honnête, cela devient très pénible à tester ces cartes graphiques : d’un côté des performances remarquables, des ventilateurs très discrets, de l’autre une disponibilité quasi nulle et des prix pratiquement « à la tête du client ».<br /> Donc sur le fond, elle mérite son 9/10, mais actuellement c’est surtout un carton rouge à la génération Ada Lovelace pour l’ensemble de son œuvre
sylvebarbe78
Pour environ 100€ de plus j’ai acheté une 4090 pour une puissance autrement plus importante ! ASUS devient totalement hors sol !!!
pecore
Malheureusement, tant que toutes les reviews continuerons à noter les produits Nvidia sur les perfs seules et à donner des notes très élevées, il n’y a aucune chance que Nvidia change sa politique d’un iota, sauf dans le sens du pire.
Nerces
Parce que tu crois que les acheteurs ne savent pas dire non quand le prix leur semble trop élevé ? Il ne faut pas croire qu’en mettant 9/10 à une carte qui les mérite, il s’en vend des palettes entières.
Spleen_0
Nerces … Tu surestimes le genre humain, et les gamers en particulier … Quand il s’agit de gagner 20fps de plus d’une gen a une autre pour 100% d’augmentation du prix, le gamer peut être sacrément teubé !!<br /> Et non, elle ne les mérite pas ces 9/10, pas pour une note globale … Pour une note technique oui !! Mais si tu intègres le prix, la note devrait s’en ressentir en conséquence !!
Nerces
J’ai toujours eu du mal à intégrer le prix dans la note. Je ne peux en faire complètement abstraction évidemment, mais c’est compliqué : vous n’avez pas tous le même budget et combien de points en moins pour 100 ou 200 euros de plus par exemple ?
Spleen_0
Je suis d’accord sur le principe. Mais comparons à gamme égale.<br /> La remplaçante de la 3080 FE (729€) est bien la 4080 FE (approx. 1500€) ?? Nous sommes d’accord ? … Bon … On nous parle inflation, coût de production, taux de changes etc. mais soyons honnête. Après les annonces d’AMD pour les GPU et Intel pour les CPU, il n’y en pas chez eux … Et sortir de nul part, Nvidia nous colle 100% d’augmentation dans les dents.<br /> C’est vraiment que Nvidia nous prend pour des cons ! Autant appeler un chat, un chat.<br /> Et ça, je l’avais déjà dis en Juillet … J’avais dis que les cartes Lovelace allaient s’aligner sur le prix des cartes Ampère pendant la pénurie et j’avais aussi dis que le prix des cartes Ampère n’allait pas réellement baisser pour proposer les cartes Lovelace à des prix encore plus haut … On ne me prenait pas au sérieux …<br /> Et tout ça pour respecter les prévisions au plus proche pour Q4 2022 … Jensen nous l’a met à l’envers, il ne va rester que AMD pour rattraper le coup. Mais ça on ne le saura qu’après les tests.<br /> Et personnellement, j’ai hâte que tu te retrouves avec ces petites bêtes entre les mains pour nous sortir les résultats !!
pecore
Je crois que beaucoup lisent les articles en diagonale, voire pas du tout. Ils ne regardent que la note finale et éventuellement la conclusion, qui forcément est en adéquation avec la note.<br /> D’autres, encore plus nombreux, sont plus réceptifs au marketing qu’à la raison et la notation ne fait que leur donner la confirmation qu’ils attendent.<br /> Mais surtout, faire totalement abstraction des prix reviens à féliciter Nvidia pour sa démesure en l’encourageant à continuer dans cette voie; Et cela reviens aussi à mépriser les efforts d’autres marques à proposer des produits à des prix plus maitrisés. J’ai toujours en travers le 7 de la RX 6900 XT qui s’approchait tout de même beaucoup de la RTX 3090, mais pour 600€ de moins, excusez du peu, quant la RTX 3090 prenait un 9, encore .
Shinpachi
J’ai presque toujours eu des nVidia, mais là, je n’en peux clairement plus de cette marque.<br /> Même s’ils s’alignent à leur sortie, maintenant, ce sera de l’AMD.
Nerces
pecore:<br /> J’ai toujours en travers le 7 de la RX 6900 XT qui s’approchait tout de même beaucoup de la RTX 3090, mais pour 600€ de moins, excusez du peu, quant la RTX 3090 prenait un 9, encore .<br /> Tu es sûr ? Là je parle de mémoire, donc je peux me tromper, mais il semblait que Clubic n’avait pas testé la 3090 ?! Pour le 7 de la 6900 XT, c’est tout le problème des notes : la 6800 XT avait eu 8, il était donc difficile de donner la même note, justement parce que le MSRP augmentait bien davantage que les performances. Évidemment, on peut aussi discuter de ce 8 et se dire qu’un 9 aurait justifié.<br /> De toute façon, c’est tout le problème de notes figées dans le temps. C’est aussi pour cela qu’on s’est dit avec Colin que nous reverrions peut-être les notes dans quelques semaines après la sortie de certaines cartes très attendues
pecore
Nerces:<br /> Tu es sûr ? Là je parle de mémoire, donc je peux me tromper, mais il semblait que Clubic n’avait pas testé la 3090<br /> Non, en effet, j’ai du la voir sur un autre site, désolé . Clubic avait évidemment parlé de la RTX 3090, mais pas sous forme de test, tu as raison.<br /> Cela suffisait malgré tout à voir qu’il y avait déjà une grande indulgence, avec notamment l’arrivée des premiers : « oui c’est cher, mais de toutes façons ce n’est pas une carte gaming alors ça va ».<br /> On voit maintenant où ce type de raisonnement nous a conduit.
DrCarter95
Ah ouais quand même
juju251
Spleen_0:<br /> Nerces … Tu surestimes le genre humain, et les gamers en particulier … Quand il s’agit de gagner 20fps de plus d’une gen a une autre pour 100% d’augmentation du prix, le gamer peut être sacrément teubé !!<br /> C’est une nécessité d’être insultant ?
Popoulo
Ce que les gens n’ont pas encore compris, c’est que ces cartes sont capables de faire autre chose que du jeux. Est-ce que ça vaut la différence de prix ? Clairement je dirai.<br /> Si vous ne faites pas autre chose que gaming qui pour la grande majorité se résume à du 1080 - un peu risible de vouloir une telle carte pour ça - prenez direct de l’AMD. C’est moins cher et ça fait le café sans soucis. Et ça permettra aussi d’arrêter de vous entendre couiner à chaque news, ce qui ne sera pas du luxe.
bafue
Pour faire autre chose que du jeux il y a les Quadro ,qui fond beaucoup mieux que des RTX 4XXX…
Popoulo
bafue:<br /> Pour faire autre chose que du jeux il y a les Quadro ,qui fond beaucoup mieux que des RTX 4XXX…<br /> Faux. Quand je vois une A6000 à +5000 balles mise à mal par une 4090 (min. 2x plus rapide sur la majorité des moteurs de rendu 3D), je trouve pas que ça fasse « beaucoup mieux ».
pecore
Faux dans les deux cas, car AMD est au moins en partie obligé de suivre la course à la performance de Nvidia, vu que les perfs, c’est tout ce qui compte apparemment pour les acheteurs. Dans sa fuite en avant, Nvidia, de par sa qualité de leader, entraine tout le marché avec lui et c’est ça qui nous fait « couiner ». D’ailleurs, non, ça n’est pas près de s’arrêter, là aussi tu as faux.<br /> Et faux aussi de dire que le prix se justifie par la possible utilisation professionnelles car ces cartes ciblent clairement les gamers au vu du marketing de Nvidia.<br /> En mélangeant cartes pros et cartes gaming, Nvidia s’est juste cherché une autre justification à son augmentation de tarif alors qu’une marque correcte aurait séparé les gammes de manière claire avec des cartes pros puissantes et chères sous une certaine appellation, et des cartes gamings moins puissantes et moins chères sous une autre.<br /> Et pour info :<br />
Kaggan
Ouai bah vu l’augmentation des prix, je crois que pour le prochain changment de carte graphique je vais passer chez AMD moi.
_Troll
Pourquoi l’article dit que le resizable bar est desactive ? Cette carte ne le gere pas ? Un oubli de configuration.sur le pc ?
gf4
Cette carte s’adresse à ceux qui veulent absolument jouer en 4K. Pour du full hd, une 3060 ti suffit largement. Ou alors du quad hd 165 fps et encore. La 4070 sera moins chère, j’espère…
sylvio50
Pour la note finale, il est possible de s’inspirer de ce genre de graphique :<br /> 500×1530 92.7 KB<br /> source : NVIDIA GeForce RTX 4080 Founders Edition Review - Energy-Efficient Beast - Performance per Dollar | TechPowerUp<br /> Pour info, les RX 6800 / RTX 3070 (50% moins perf en 1440p, hors RT) sont dispo à partir d’environ 570 €.<br /> La RX 6950 XT (30 % moins perf en 4K, hors RT) à partir de 880 €.<br /> Nota : Normalement, le 5 nm est censé apporter un rapport perf/prix imbattable et faire dégager les cartes gravées en 7 nm, mais ce n’est pas du tout le cas ici.
Nerces
Parce que souvent je prends ces captures de CPU-Z / GPU-Z en tout début de test, tout n’est pas encore configuré au mieux. Cela dit, le ReBAR sur NVIDIA n’apporte pas grand-chose, c’est plus important sur AMD et carrément indispensable chez Intel.
pecore
Pourquoi personne ne tique sur le ratio prix/perf de cette carte ? Le principe d’un changement de génération c’est toujours d’avoir plus de perfs pour la même somme que la génération précédente. Or ici, de ce que je vois, non seulement le ratio prix/perf n’évolue pas mais il régresse par rapport à la génération précédente, à savoir la RTX 3080.<br /> Et ce n’est pas le tableau assez trompeur qui ne compare la 4080 presque uniquement qu’aux cartes « haut de gamme », qui sont les moins intéressantes en terme de ratio prix-performance, qui fera oublier que la 4080 est 23% MOINS performante que la 3080 en terme de prix/perf, alors qu’elle est d’une génération au dessus et qu’elle est beaucoup plus chère.
bafue
Désolé après 20 ans chez Nvidia j’attend la carte des Rouge …Trop c’est trop …Adieu Nvidia.
Emmanuel_Angulo
De toutes façons, comment veux-tu noter ces cartes haut de gamme autrement que par les perfs ? Les joueurs en 4K (il commence a y en avoir) savent très bien que le hardware pour jouer dans cette définition (ecran, CPU, GPU) vaut une blinde !<br /> Il n’y a pas de politique à changer, car à mon sens on est dans une niche de joueurs qui ont les moyens et qui savent ce qu’ils font et si Nvidia lachait le creneau de la perf à tout prix, AMD y irait.
Emmanuel_Angulo
Pourquoi les gens seraient « teubés » s’ils ont les moyens de se payer des cartes à 2000 euros ?<br /> Tu sais, l’informatique c’est comme les voitures : il en faut pour toutes les bourses et tous les gouts, sinon personne ne roulerait en Tesla et se contenterait de Zoé.<br /> On a pas a juger la manière dont les gens dépensent leur argent, s’il le font c’est qu’ils le peuvent et, crois moi, le gamer boutonneux de 19 ans n’a certainement pas 2000 euros à dépenser
Emmanuel_Angulo
Justement, non. Pour 2x moins cher qu’une Quadro, il y a la 4090 qui fait mieux, dans la plupart des cas
bennj
Il y a des tests qui ont été effectué pour comparer les perfs d’une Quadro qui est au même tarif qu’une 4090 ? Je parle pour des logiciels pro comme Autocad ou autre. Car la est le but d’une Quadro.<br /> Sur le sujet des 4080, ce qui me fait toujours tiquer c’est cette augmentation de dingue de Nvidia par rapport à la génération précédente. Comment peux ton doubler le prix d’une carte qui se base sur le même modèle ? Qu’il y ait une augmentation du l’inflation etc. OK mais de la à doubler le prix ? J’imagine surtout que nvidia a encore beaucoup de GPU d’ancienne génération à écouler (suite au crash du marché des cryptos) et c’est pour cela quils se sont permis une telle augmentation de prix. Ils ont du se dire que les gens ont bien dépensé des sommes folles durant la période où il n’y avait plus de stock alors pourquoi ça ne passait pas pour un tarif officiel ?<br /> Bref de mon côté je vais repasser chez les rouges, après être passé chez les verts avec la 970.
Emmanuel_Angulo
Effectivement, je te rejoints sur les stocks de 30xx qui sont très (trop ?) facilement trouvables.<br /> Après, il ne faut pas oublier non plus le couts de recherche et de production de ces GPU hors normes.
bennj
Oui mais les coûts de recherches et développements sont présents pour chaque nouvelle génération. Même sur la génération précédente 800e pour une 3080 c’était déjà une très belle somme. Alors doubler cette somme est vraiment indécent même pour un fidèle de la marque comme moi. Nvidia a toujours été sur le marché haut de gamme, mais la ils ont poussé le bouchon beaucoup trop loin pour que je continue à être un client fidèle. Fidélité ne rime pas avec pigeon.
sylvio50
bennj:<br /> Comment peux ton doubler le prix d’une carte qui se base sur le même modèle ?<br /> C’est dû au manque de concurrence.<br /> Lorsque la RX 7900 XTX sortira, la RTX 4080 retombera à 1200 € (1000 $) ou moins.
pecore
Emmanuel_Angulo:<br /> De toutes façons, comment veux-tu noter ces cartes haut de gamme autrement que par les perfs ?<br /> Ben justement, par le ratio prix/performance et notamment par rapport aux cartes de la génération précédente. Si ce ratio stagne, c’est déjà que le producteur n’a pas fait son travail, qui est de proposer mieux pour le même prix d’une génération à l’autre. Sinon, à quoi servirait de changer de génération ?<br /> Mais si ce ratio empire d’une génération à l’autre alors ce n’est même plus ne pas faire le taf, c’est carrément prendre les clients pour des idiots avec, souvent, le concours involontaire de la presse spécialisée.<br /> Le pire, c’est que, bien souvent, ça marche. Mais pas là, apparemment. Déjà, beaucoup de chaines tech, presque toutes en fait et même les plus indulgentes envers Nvidia, ont dit que là il y avait de l’abus et qu’il ne fallait pas acheter la 4080. J’ai l’espoir qu’on verra bientôt Clubic rejoindre ce mouvement de ralbolisme, surtout au vu du message de @Nerces en début de topic.<br /> Ensuite, la carte se vend mal et sans doute qu’une bonne partie des ventes étaient faites à des scalpers. Donc les clients aussi commencent à dire que trop, c’est trop. Pourvu que ça dure.
Patrick_Beau
Non.<br /> Limiter la comparaison Geforce &amp; Quadro aux performances et au prix, c’est un non-sens.<br /> Les Geforces sont des cartes de joueurs. Les Quadros des cartes professionnelles.<br /> Quadro, c’est aussi un pilote, des optimisations etc… qui font qu’elles sont plus performantes que les Geforces si un programme nécessite une Quadro.<br /> Les seules personnes contentes des X090, ce sont les graphistes, sous Blender, Photoshop, Davinci etc… où Quadro n’est pas nécessaire. Ceux qui sont sont Autocad, Topsolid, Solidworks etc… gardent des Quadros. Ceux qui vont du GPGPU, du VDI, du réencodage de masse, du calcul qui nécessitent de fortes capacités en VRAM font de même.<br /> Il faut tout prendre en compte dans les choix techniques.
Voir tous les messages sur le forum

Derniers tests

Test Marshall Acton III : une mini enceinte de salon à la puissance surprenante
Test TCL 55C635 : un téléviseur abordable qui marque des points
Test Mate 50 Pro : Huawei peut-il encore se hisser parmi l'élite ?
Test Microsoft Surface Laptop 5 : élégant, plus puissant… mais indécrottable
Test Corsair EX100U : un minuscule SSD externe performant à emporter partout
Test JBL Bar 1000 : séance de rattrapage pour la barre de son avec enceintes d’effets détachables
Test DJI Avata : le drone FPV plus accessible que jamais
Test Trust GXT 981 Redex : légère en poids et en prix, des atouts suffisants ?
Test Apple iPad Pro M2 : une mise à jour qui vaut son prix ?
Test LG Gram 14 (2022) : un kilo seulement… mais quoi d’autre ?
Haut de page