Test NVIDIA GeForce RTX 3080 : Ampere frappe fort

Colin Golberg
Tech Chief Editor
24 décembre 2020 à 13h34
102
RTX 3080 © NVIDIA

Enfin ! Après des mois de rumeurs et de leaks en pagaille, NVIDIA s'est décidée à révéler ses nouvelles cartes graphiques grand public, les GeForce RTX de la série 30. S'il y a deux ans, l'architecture Turing proposait une véritable révolution avec l'introduction du Ray Tracing en temps réel et d'unités dédiées à l'IA, cette année, le caméléon propose une évolution qui devrait en théorie faire s'envoler les performances. Alors ça donne quoi ?

NVIDIA GeForce RTX 3080
  • Des performances monstrueuses (jusqu'à 2x les performances de la RTX 2080 pour un prix de lancement inférieur)
  • Un design Founders Edition très réussi
  • Un système de refroidissement efficace
  • Silencieuse
  • On cherche encore, mais allez pour pinailler, le connecteur d'alimentation propriétaire nécessite un adaptateur disgracieux dans nos beaux boîtiers à vitre latérale

Attention, les bloqueurs de publicité peuvent empêcher l'affichage des graphiques hébergés sur Infogram.

MàJ 21/09 : ajout des performances en overclocking

Introduction

Avant d'entamer une plongée technique dans la nouvelle architecture « Ampere », revenons un peu sur l'historique récent des GeForce.

Il y a deux ans, NVIDIA avait profité de la Gamescom pour dévoiler le haut de gamme de l'architecture Turing, les GeForce RTX 2070, 2080 et 2080 Ti. L'équipe verte avait alors choisi de renommer ses GeForce GTX en GeForce RTX pour marquer le saut générationnel, et introduire les technologies RTX, intimement liées au ray tracing en temps réel.

En 2019, NVIDIA sortait un refresh de ses cartes graphiques sous le nom de GeForce RTX Super. Celles-ci proposaient un nouveau type de mémoire et des fréquences légèrement revues à la hausse, mais sans bénéficier d'évolutions majeures.

Et ce 1er septembre 2020, Jensen Huang, P.-D.G. de NVIDIA, a annoncé les nouvelles cartes graphiques haut de gamme sous Ampère, dans une diffusion live… depuis sa cuisine (je vous jure). C'est alors trois nouvelles cartes qui ont été présentées, la GeForce RTX 3080, qui nous intéresse aujourd'hui (et qui devrait être le flagship grand public de cette génération), la RTX 3070, plus modeste mais très véloce, et la monstrueuse RTX 3090, qui devrait se positionner à cheval sur les segments de la - feu - RTX Titan et de la RTX 2080 Ti.

À l'heure où les consoles next-gen sont prêtes à pointer le bout de leur nez, NVIDIA frappe fort en annonçant un rapport performances/prix largement supérieur à celui de la génération précédente, suffisamment du moins pour poser la question d'un upgrade en fin d'année.

Les chiffres parlent d'eux-même
Les chiffres parlent d'eux-même

L'architecture Ampere : plus évolution que révolution

Si NVIDIA est restée très succincte à propos de l'architecture Ampere lors de son événement d'annonce, nous avons pu, depuis, nous pencher plus en détail sur les subtilités de cette nouvelle architecture. Pour rappel, le constructeur avait annoncé que la GeForce RTX 3080 serait jusqu'à deux fois plus rapide que la RTX 2080 ; que la RTX 3070 serait plus véloce que la RTX 2080 Ti (pour 50 % de son prix), et que la RTX 3090 serait jusqu'à 1,5x plus rapide que la Titan RTX !

Mais comment doubler les performances de la RTX 2080 en seulement deux années de R&D ? Si dans un premier temps nous cherchions les réponses du coté de la finesse de gravure, la firme de Santa Clara nous a finalement surpris en démentant la plupart des rumeurs persistantes depuis la génération Turing.

2080 vs 3080

Si les GPUs de la série 20 étaient gravés en 12 nm chez TSMC, c'est bien via le procédé custom 8 nm de Samsung que sont produites les puces de la série 30. Pour schématiser, ce passage au 8 nm permet d'agencer plus d'unités de calcul sur la surface du die, et l'équipe verte a tranquillement doublé le nombre de cœurs CUDA sur cette génération.

Et si on doublait le nombre d'unités FP32 ?

GA102

L'agencement des SM (Stream Multiprocessor) évolue peu par rapport à Turing : les cœurs RT passent en V2 et les cœurs Tensor passent en V3… On y reviendra.

On retrouve aussi toujours des unités dédiées aux calculs flottants (FP32), les plus courants pour les jeux 3D via rastérisation. En revanche, sur Turing, des unités étaient dédiées aux calculs d'entiers (INT32), alors que sur Ampere, ces unités sont capables aussi bien d’exécuter des instructions FP32 que des INT32. C'est par cette « astuce » que NVIDIA a doublé la puissance de calculs FP32 par SM.

En résumé, avec ce nouveau datapath (cheminement de données), NVIDIA annonce pouvoir traiter pour chaque cycle : 32 instructions FP32 ou 16 instructions FP32 et 16 instructions INT32.

RT Core de 2ème génération

Du coté des RT Core, les fameux cœurs en charge des calculs liés au Ray tracing, les nouveautés sont nombreuses. Si leur nombre passe à quatre par SM sur Ampere (versus huit par SM sur Turing), leur débit a été doublé pour améliorer les performances. Une fois que le SM a projeté un rayon, les RT Core vont exécuter les calculs requis pour reconnaître quel triangle rentre en intersection avec celui-ci (grâce à l'algorithme BVH). Sur Ampere, ce type de calcul pourrait prendre deux fois moins de temps que sur l'architecture Turing.

La gestion matérielle du flou cinétique devrait permettre des effets moins gourmands en ressources
La gestion matérielle du flou cinétique devrait permettre des effets moins gourmands en ressources

Autre nouveauté : une fonction qui permet de connaitre la position dans le temps d'un rayon projeté, et ainsi générer matériellement des effets de flou cinétique, avec un coût réduit en termes de ressources graphiques.

Tensor Core de 3ème génération & DLSS 2.1

Les Tensor Core sont en charge des calculs liés à l'IA, et se manifestent particulièrement lors de l'utilisation du DLSS (Deep Learning Super Sampling), une technologie d'upscaling bluffante, qui a vu le jour sur la génération Turing. Le DLSS permet ainsi d'upscaler une image avec un coût en ressource réduit, utilisant des modèles préalablement calculés sur les supercalculateurs de NVIDIA.

Prenons un exemple pour illustrer cela plus simplement : pour un jeu rendu en 960p, le DLSS va produire une image en 1440p, presque aussi détaillée (voire plus détaillée selon les cas) que si l'image avait été rendue nativement en 1440p, le tout avec les performances d'un rendu en 960p.

Pour nous c'est simple, cette technologie est actuellement plus impressionnante encore que le ray tracing, tant le gain de performance est important. Bien sûr l'objectif est de compenser le coût important en ressource du ray tracing, mais le DLSS peut aussi vous permettre de jouer en 4K (voire 8K) avec des performances de premier ordre, et ce sans le ray tracing activé. Et si, malheureusement, trop peu de jeux exploitent cette technologie actuellement, NVIDIA travaille activement avec les développeurs pour y remédier.

tensorcore

Sur Ampere, les Tensor Core ont été optimisés pour compresser les données plus efficacement et donc traiter les instructions beaucoup plus rapidement. NVIDIA inaugure également le DLSS 2.1, une évolution mineure du DLSS 2.0 lancé en mars dernier.

Au rayon des nouveautés, on relève alors la prise en charge de la 8K, le support des résolutions dynamiques et de la réalité virtuelle. Une très bonne nouvelle, qui permettra de suivre la montée en définition des casques VR, tout en maintenant les performances nécessaires à une immersion fluide (sans vomir).

GDDR6X & Async Compute

NVIDIA inaugure également un nouveau type de mémoire graphique, la plus rapide du marché, la GDDR6X : 19,5 Gbps sur la RTX 3090 et 19 Gbps sur la RTX 3080. Avec une interface mémoire de 320 bit, la GeForce RTX 3080 a une bande passante mémoire 1,5x plus importante que la RTX 2080 Super.

Le signal peut désormais prendre 4 valeurs possibles, doublant les performances par rapport à la GDDR6
Le signal peut désormais prendre 4 valeurs possibles, doublant les performances par rapport à la GDDR6

Évoquons, enfin, l'async compute, un terme barbare pour définir les capacités d’exécution simultanées du GPU. Déjà présent sur Turing, NVIDIA a cette fois amélioré l'exécution parallèle pour permettre aux jeux qui utilisent à la fois la rastérisation, le ray tracing et le DLSS de gagner en performances.

Sur Ampere, il est donc désormais possible d'utiliser les CUDA Core, RT Core et Tensor core simultanément pour accélérer le pipeline de rendu, et donc réduire le temps requis pour calculer une image.

Il faut presque deux fois moins de temps sur Ampere pour calculer une image
Il faut presque deux fois moins de temps sur Ampere pour calculer une image

RTX IO : le SSD de la PS5 ?

Terminons notre décryptage de l'architecture Ampere avec une fonctionnalité annoncée par NVIDIA, mais qui ne verra pas le jour avant 2021. RTX IO devrait accélérer les chargements de vos jeux en permettant à votre carte graphique de discuter directement avec votre SSD, sans passer par la case décompression des données par le CPU. Il faut maintenant attendre que Microsoft déploie son API DirectStorage dans une prochaine mise à jour de Windows 10… On ne manquera pas de vous en reparler à ce moment là !

Cheh le CPU
Cheh le CPU

Quoi de neuf du coté software ?

NVIDIA profite du lancement des GeForce RTX de la série 30 pour introduire deux nouveautés logicielles : Broadcast pour permettre aux streameurs de se créer un studio low cost, et Reflex pour réduire la latence dans les jeux compétitifs.

NVIDIA Broadcast

C'est peu dire que le streaming de jeux vidéo a le vent en poupe. NVIDIA l'a bien compris et propose une solution logicielle pour améliorer son setup sans se ruiner. Il suffira d'être équipé d'une GeForce RTX (série 20 ou 30) pour profiter de plusieurs raffinements : suppression des bruits parasites (RTX Voice), suppression de l'arrière plan à la manière d'un fond vert et cadrage automatique. L'équipe verte met également un SDK à disposition des développeurs qui souhaiteraient utiliser ces technologies dans leurs logiciels.

Broadcast utilise les Tensor Core et le machine learning pour améliorer ses résultats, et le build que nous avons testé est déjà convaincant, même si le découpage visuel peut encore être amélioré.

Pour vous montrer ce dont est capable le soft à l'heure actuelle, nous avons préparé une courte vidéo sur notre setup Clubic habituel :

Reflex

NVIDIA est aussi très investie dans l'e-sport, et a même créé une équipe de recherche dédiée à l'étude des performances du matériel informatique et des joueurs. L'objectif est de trouver des solutions pour réduire la latence et proposer les performances les plus en phase avec la pratique compétitive des jeux modernes, notamment des FPS.

C'est dans cette optique que la firme de Santa Clara lance Reflex, une suite de solutions pour analyser et réduire la latence du clic à l’affichage.

La suite Reflex sera disponible via un SDK, pour que les développeurs puissent l'intégrer à leurs jeux. Ci-dessous vous trouverez un aperçu des performances obtenues sur certains des jeux compétitifs les plus joués.

Reflex

Présentation de la GeForce RTX 3080 Founders Edition

Avant d'entrer dans le vif du sujet, prenons encore un peu de temps pour présenter la GeForce RTX 3080 Founders Edition, le design de référence de NVIDIA. Et disons-le tout de suite, les verts ont frappé fort sur cette génération, avec un design des plus réussis !

3080 © Colin Golberg
3080_2 © Colin Golberg
3080_03 © Colin Golberg
La taille du PCB a été fortement réduite pour améliorer le design thermique
La taille du PCB a été fortement réduite pour améliorer le design thermique

Fiche technique NVIDIA :

  • Cœurs CUDA : 8704
  • Fréquence Boost : 1,71 GHz
  • Configuration mémoire standard : 10 Go GDDR6X
  • Taille d’interface mémoire : 320-bit
  • Cœurs de Ray tracing : 68 cœurs de 2ème génération
  • Cœurs Tensor : 272 cœurs de 3ème génération
  • Architecture NVIDIA : Ampere
  • PCI Express Gen 4 : Oui
  • NVIDIA NVLink (SLI-Ready) : Non
  • HDMI 2.1 : Oui
  • DisplayPort 1.4a : Oui
  • Connecteurs d’affichage standard : HDMI 2.1, 3x DisplayPort 1.4a
  • HDCP : 2.3
  • Longueur : 285 mm
  • Largeur : 112 mm
  • Hauteur : 2-Slot
  • Température GPU maximale : 93°C
  • Consommation énergétique : 320 Watts
  • Alimentation système recommandée : 750 Watts
  • Connecteurs d’alimentation supplémentaires : 2x8 broches PCIe
NVIDIA annonce des performances doublées en 4K par rapport à la RTX 2080
NVIDIA annonce des performances doublées en 4K par rapport à la RTX 2080

Vous l'avez sûrement constaté sur les photos, les RTX 3080 et 3090 profitent d'un nouveau design intimement lié au système de refroidissement. Pour la première fois, NVIDIA propose un système intégrant un ventilateur sur chaque face des cartes graphiques. L'objectif est d'optimiser la circulation de l'air dans les boîtiers, en s'adaptant au flux « classique » d'une entrée d'air froid sous le boitier (ou sur la face avant), et d'une sortie d'air chaud par l'arrière du boitier, généralement au niveau du CPU.

airflow3

Nous avons donc un ventilateur sur la face avant qui va expulser l'air chaud directement vers le haut du boitier, et un ventilateur sur la face arrière, qui va l'expulser directement à l’extérieur du boitier via un évent placé sur la face des connecteurs de la carte graphique, à la manière des refroidissements de typer blower.

airflow1
Ce nouveau design optimise les flux d'air
Ce nouveau design optimise les flux d'air

En résulte, selon NVIDIA, un refroidissement plus efficace et plus silencieux que sur les cartes de la génération Turing : environ 20°C de moins et 10 dBA en dessous de la RTX 2080.

temp

Concernant le SLI, NVIDIA a fait le choix de ne pas proposer de connecteur NVLink sur la RTX 3080, et de le limiter à la RTX 3090. Dommage pour les pros qui auraient pu utiliser deux RTX 3080 pour un cumul de performance déjà monstrueux.

Un nouveau connecteur 12 broches pour l'alimentation

Ici, exit les classiques 2x8 broches : NVIDIA inaugure sur ses designs de référence Ampere, un unique connecteur 12 broches beaucoup plus compact. Interrogé à ce sujet, NVIDIA nous a confié que ce nouveau connecteur était nécessaire à leur design thermique, pour libérer de l'espace à l'imposant radiateur.

En conséquence, la firme au caméléon fournit dans chaque boite de ses Founders Edition, un adaptateur 2x8 broches vers 1x12 broches. Si vous possédez une alimentation modulaire, on vous conseillera d'opter pour un câble compatible, qui devrait arriver rapidement dans toutes les bonnes crèmeries. En effet, si vous êtes sensible au cable management et que votre boitier est muni d'une vitre latérale, l'utilisation de cet adaptateur est loin d'être esthétique. Enfin sachez que NVIDIA a partagé le design de ce nouveau connecteur ; libre aux partenaires, voire aux concurrents, de l'utiliser.

L'adaptateur 2x8 broches vers 1x12 broches
L'adaptateur 2x8 broches vers 1x12 broches

Prix et disponibilité de la RTX 3080

La GeForce RTX 3080 Founders Edition sera disponible sur le site de NVIDIA dès le 17 septembre au prix de 719 €. Les modèles custom arriveront en même temps, et nous ne manquerons pas d'en tester quelques-un rapidement.

Protocole de test, consommation électrique et benchmarks synthétiques

Sans plus attendre, voici la configuration de test utilisée pour tous les benchmarks :

  • Processeur : Intel Core i9-9900K
  • Carte Mère : MSI MPG Z390 GAMING PRO CARBON (Chipset Intel Z390)
  • Mémoire : DDR4 Corsair Vengeance LPX, 2 x 16 Go, 3200 MHz
  • SSD : Samsung Série 960 EVO, 250 Go, M.2 (Type 2280)
  • Disque Dur : Seagate BarraCuda, 2 To
  • Alimentation : Be Quiet ! Straight Power 11, 850W Plus Gold
  • Boitier : Be Quiet ! Dark Base 900 (Pro 900 rev. 2)
  • Refroidissement : Watercooling AIO Be Quiet ! Silent Loop 360
  • Moniteur : ASUS ROG Swift PG27UQ 4K 144 Hz HDR GSYNC

Tous les tests sont effectués boitier fermé, sous Windows 10 Pro (2004) avec les dernières mises à jour disponibles via Windows Update. La version des pilotes Game Ready utilisée est la 456.16.

Voici la liste des cartes que nous avons testées :

  • GeForce RTX 2070 FE
  • GeForce RTX 2080 FE
  • GeForce RTX 2080 Ti FE
  • Radeon RX 5700
  • Radeon RX 5700 XT
  • GeForce RTX 2060 SUPER FE
  • GeForce RTX 2070 SUPER FE
  • GeForce RTX 2080 SUPER FE
  • GeForce RTX 3080 FE
  • GeForce RTX 3070 FE

À noter que certaines cartes n'étant plus en notre possession lors des benchmarks de la RTX 3080, leurs scores n'apparaissent que sur certains tests effectués auparavant.

On commence en beauté avec le test le plus gourmand de 3DMark, et la RTX 3080 explose littéralement la RTX 2080 avec une amélioration de près de 85 % des performances, proche du double annoncé par NVIDIA, uniquement sur un traitement de type rastérisation (pas de Ray tracing). Elle se paie même le luxe de surpasser de près de 40 % la RTX 2080 Ti !

Sur Unigine Superposition, l'écart est plus mesuré en 4K, avec 66 % d'amélioration par rapport à la RTX 2080 et 26 % par rapport à la RTX 2080 Ti. En 1440p, les performances s'envolent à nouveau avec 84 % d'amélioration face à la RTX 2080 ; elle est aussi 33 % plus rapide que la RTX 2080 Ti.

Sur Port Royal, le test de 3DMark dédié au Ray tracing, c'est le jackpot : la RTX 3080 surpasse la RTX 2080 de près de 94 %. NVIDIA n'avait pas menti. Elle est aussi 33 % plus rapide que la RTX 2080 Ti.

Nous mesurons la consommation totale du PC avec un wattmètre à la prise, au repos sur le bureau, puis en pleine charge dans un jeu exigeant et en stress test.
Pour obtenir la consommation des cartes au repos, nous comparons la consommation du PC, avec et sans carte graphique insérée, sur le circuit graphique intégré. Enfin nous comparons nos résultats avec ceux remontés via la dernière version beta de MSI Afterburner et FrameView, l'outil de mesure de NVIDIA, pour vérifier que nous sommes bien dans les clous.

NVIDIA ayant fait le choix de profiter de la nouvelle finesse de gravure en 8 nm, pour blinder son GPU d'un maximum d'unités de calcul, la consommation électrique augmente par rapport à la génération Turing. Cela-dit, le rapport performances/Watts s'envole, pour atteindre un rendement exceptionnel.

Notre pic de consommation lors du stress test atteint les 327,5 W, tandis que la RTX 2080 plafonnait à 243 W et la RTX 2080 Ti à 300 W. Mais à titre de comparaison, voici les ratio de performances/watt de chaque carte sur notre test (le plus haut étant le meilleur) :

  • RTX 3080 : 27,52
  • RTX 2080 Ti : 21,69
  • RTX 2080 : 20

En 1440p notre consommation moyenne oscille entre 315 et 320W sur un jeu exigeant.

perfwatt

Et voici les métriques maximales mesurées lors d'un stress test (10 minutes en boucle avec le stress test TimeSpy Extrem de 3DMark) :

  • Consommation électrique max : 327,5 W
  • Température max : 80°C
  • Fréquence GPU max : 2025 Mhz
  • Fréquence MEM max : 9502 Mhz

Comme vous pouvez le constater sur ce graphique, le rapport performances/prix s'envole sur cette RTX 3080, une belle surprise de la part de NVIDIA qui ne nous avait pas habitué à ça. Nous nous sommes basé sur les prix de lancement des Founders Edition testées.

Performances dans les jeux

Nous vous laissons découvrir les résultats par jeu et résolution d'écran :

L'activation des calculs asynchrones est l'occasion de voir à quel point l'architecture Ampere améliore l’exécution simultanée d'instructions, permettant une amélioration de près de 15 % des performances. On a hâte de voir cette optimisation intégrée sur plus de jeux.

Notre benchmark se termine avec Minecraft RTX, extrêmement gourmand en ressources avec le ray tracing activé. Ici la RTX 3080 fait des merveilles et présente des performances qui atomisent celles de la RTX 2080 Ti, avec près du double des images/sec !

Les chiffres parlent d'eux-même, la GeForce RTX 3080 est un monstre de puissance et NVIDIA réalise bien le saut générationnel le plus important de son histoire. C'est simple, si on fait la moyenne des performances de tous nos jeux testés en 4K, cette carte est 73 % plus rapide que la RTX 2080 et 33 % plus véloce que la RTX 2080 Ti.

En 1440p, elle reste 58 % plus rapide que la RTX 2080 et 25 % plus rapide que la RTX 2080 Ti. Enfin en Full HD, la RTX 3080 est 38 % plus véloce que la RTX 2080 et 19% plus rapide que la RTX 2080 Ti.

Overclocking

Après avoir testé en détails notre modèle Founders Edition, il ne reste plus que l'épreuve de l'overclocking pour pousser cette GeForce RTX 3080 dans ses retranchements. Avec une finesse de gravure plus importante, et le système de refroidissement innovant mis en place par NVIDIA, il est intéressant de voir le potentiel d'overclocking de la carte.

Rappelons nous que plus le refroidissement est efficace, plus la fréquence "boost" peut être augmentée. Un bon overclocking est un compromis entre performances, température et nuisances sonores.


Sur la génération Turing, NVIDIA inaugurait une nouvelle technologie appelée OC Scanner, pour nous permettre d'effectuer un overclocking idéal et stable en un seul clic. Les cartes Founders Edition ainsi que les modèles partenaires embarquent un ensemble d'algorithmes dédiés à l'overclocking, permettant de tester le couple fréquence/tension sur différents scénarios de charge.

L'avantage de ce système, c'est de pouvoir effectuer une analyse d'environ 10-20 minutes sans reboot du PC. Le programme va mesurer les erreurs et mémoriser le dernier état stable avant le crash, permettant d'obtenir une courbe fréquence/tension idéale.

A l'heure actuelle seule la dernière version beta d'Afterburner, fournie par MSI, prend en charge l'OC scanner sur la RTX 3080.

L'OC Scanner calcule automatiquement le couple fréquence/tension
L'OC Scanner calcule automatiquement le couple fréquence/tension
La fréquence boost passe en moyenne à +118 Mhz par rapport à la fréquence boost avant OC
La fréquence boost passe en moyenne à +118 Mhz par rapport à la fréquence boost avant OC

Maintenant place aux résultats :


Si l'on traduit ça en terme de performances, sur le test TimeSpy Extreme de 3D Mark, en 4K, on mesure le Graphics score : la GeForce RTX 3080 Founders Edition performe de +3,4% par rapport aux fréquences stock et surpasse de fait le modèle custom de MSI.

A noter tout de même qu'à ces fréquences élevées, les ventilateurs restent assez silencieux.

Fortnite RTX

En marge de nos benchmark, NVIDIA a mis à notre disposition une map de Fortnite RTX optimisée pour les effets Ray tracing, et compatible DLSS. Nous vous proposons une vidéo de gameplay maison sur la RTX 3080, toutes les infos de performances étant affichées dans le coin supérieur gauche de l'écran.

L'avis de Clubic

Comment résumer cette GeForce RTX 3080 Founders Edition, et à quel type de joueur est-elle destinée ?

NVIDIA annonçait des performances doublées en 4K avec des effets avancés comme le ray tracing ou le DLSS, et la firme ne nous a pas trompé sur la marchandise. Si la génération Turing était à la fois performante et révolutionnaire, l'addition restait salée pour les joueurs exigeants. Sur Ampère, la GeForce RTX 3080 est moins chère que la RTX 2080 au lancement mais les performances crèvent le plafond, et de fait, le rapport performances/prix s'envole.

Et si NVIDIA avait décidé de ne pas augmenter ses prix à l'approche du lancement des consoles next-gen ? Sur PC la next-gen c'est tous les deux ans, et un potentiel acheteur intéressé par la Xbox Series X peut légitimement hésiter entre l'achat d'une RTX 3070 et d'une console, les jeux sortant tous sur PC.

Avec Ampere, l'architecture évolue avant tout dans une optique de performances, et quelques nouveautés logicielles comme Reflex et Broadcast viennent enrichir notre expérience en jeu et/ou en stream.

Mais cette débauche de puissance nécessite-t-elle pour autant un upgrade vers la nouvelle génération ? La GeForce RTX 3080 s'adresse avant tout aux joueurs équipés d'écrans 4K à rafraîchissement élevé, ou qui comptent s'en équiper dans les mois à venir. Si vous faites partie de ces chanceux, vous pourrez alors compter sur des jeux en 4K, à 100 images/sec en moyenne avec tous les réglages au maximum, le tout avec du ray tracing.

Cyberpunk, on t'attend !

9

Avec la génération Ampere, NVIDIA propose une évolution de son architecture, axée sur les performances. La firme de Santa Clara l'avait annoncé, le bond de performance est le plus important jamais vu entre deux générations de cartes graphiques… Et c'est vrai. Si vous attendiez pour changer votre matériel haut de gamme, vous pouvez y aller les yeux fermés !

Les plus

  • Des performances monstrueuses (jusqu'à 2x les performances de la RTX 2080 pour un prix de lancement inférieur)
  • Un design Founders Edition très réussi
  • Un système de refroidissement efficace
  • Silencieuse

Les moins

  • On cherche encore, mais allez pour pinailler, le connecteur d'alimentation propriétaire nécessite un adaptateur disgracieux dans nos beaux boîtiers à vitre latérale
Amazon 1299€ Voir l'offre
Amazon 1299€ Voir l'offre
Cet article contient des liens d'affiliation, ce qui signifie qu'une commission peut être reversée à Clubic. Les prix mentionnés sont susceptibles d'évoluer. 
Lire la charte de confiance
Haut de page

Les derniers tests

Carte graphique : tous les derniers tests
Rejoignez la communauté Clubic S'inscrire

Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.

S'inscrire

Commentaires (102)

Steevenoo
Vu ailleurs les performances dans flight simulator en 4K sont très très moyenne (même pas 60FPS) en plus que la carte consomme beaucoup trop bref il faut attendre encore deux génération …
AlexScan
Il manque les perf de la 3080 dans le graph de The Division 2
AlexScan
Sinon bien joué Nvidia, j’attend la 3060Ti et la RX6000 pour me décider… entre une CG ou une PS5…
Funkee
Merci c’est réparé.
Thebadcrc
En fait, plus que les ecrans 4K, ce sont les joueurs en VR qui me semblent attires par cette carte. Les nouvelles generations de casque VR vont pousser 2 x 2K avec un besoin de fps tres eleves. FS2020 est suppose dans un avenir proche supporter la VR. La simu (avions, voiture, helicos) et le combat spatial (SW Squadrons) donnent tout son sens aux casques de VR et ces cartes vont peut etre permettre de democratiser un peu plus ce peripherique.
ar-s
Jolie bête, joli bon. Malgré tout, sa taille et sa conso me font tout de même dire que j’attendrai 2 ans encore. Ayant une 1080 depuis pas mal de temps, elle tient encore très bien la route. J’attends aussi de voir les RX6000 et la techno RDNA 2 d’AMD.<br /> AMD a tellement bluffé tout le monde depuis les Zen 2 que rien n’est impossible. (en terme de Performance/Conso/Prix) Sachant qu’ils vont graver en 7nm, les perf devraient être au rendez vous.
Popoulo
Et il ne t’ai même pas venu à l’esprit que ce soft était pas encore opti pour cette génération de cartes (comme 99% des jeux/softs actuels) et que même dans 10 générations, si le nécessaire n’est pas fait, ça sera pareil ? non ?<br /> @anon16165080 : Quel matériel utilisez-vous ? ça fait relativement peu 250w. C’est juste ce qu’il faut pour alimenter ma 1080ti actuelle.
Popoulo
C’est clair qu’il faut attendre pour voir ce qu’AMD va pondre - même si la barre est haute.
sshenron
Aujourd’hui il n’y a pas beaucoup de différences sur ce jeu entre une 2080 TI et une 3080. Mais il y a bien une différence de prix entre ces deux cartes graphiques. A sa sortie la 2080 TI coûtait le double d’une 3080 je crois.<br /> Par ailleurs j’imagine que des mises à jour et des drivers amélioreront petit à petit les perfs.<br /> Maintenant pour la consommation, j’espère que ca ne continuera pas à augmenter d’ci les prochaines générations …
Nmut
Dommage qu’il n’y ait pas quelques tests OpenCL ou même un peu débile comme du minage pour voir la puissance de calcul brute. La nouvelle archi devrait permettre de se rapprocher un peu de l’efficacité des AMD et pourrait m’intéresser (calculs de probas big data).
LedragonNantais
pour ma part, tournant encore avec une vielle 770 qui fait ce qu’elle peut, si j’arrive a changer de config (un jour xD), je pars sur une futur 3080ti (parce qu’elle arrivera certainement) et en tri écran. Après concernant ce fameux connecteur 12 pin, il est fort à parier que les cartes custom chez EVGA, MSI et consorts seront en 2x8. A voir.
Funkee
Nous les ajouterons bientôt.
c_planet
@Clubic : Salut, merci pour la review, Ceci dit sous Firefox 80 et win7, vos graphs ne s’affichent pas (ok sur opera et brave).<br /> Sinon pour ceux qui attendaient du cpu scaling : tomshardware et du PCIe scaling : techpowerup. En gros, en 4k un cpu à 100€ tient très bien la route, même mon système pcie 2.0 de 2011 pourrait suffire, faut juste voir si il y a une différence entre bench et jeux irl (stutter, etc.)<br /> The demands on the GPU are so high that even a seven-year-old Core i7-4770K now only trails the Core i9-10900K by 8% at 4K ultra<br />
thudner-aurel
Seul les FE utilisent le 12 Pin, et tant mieux.
Nmut
1600X OC 4Ghz + 24Go + Vega56 stock + nvme 256Go + 4 fois 2To = 360W au max à la prise (calculs scientifiques CPU 100%, GPU100%, 1 HDD en lecture à 100 Mo/s + 2 HDD en écriture à 100Mo/s), 290W en jeu 1080p 75fps.<br /> Je ne comprends pas les recommandations des constructeurs de cartes vidéo…
Popoulo
C’est ce que j’avais pensé, une 1060. J’avais mis la même dans le PC à ma femme qui avait un boitier avec une alim pas très puissante.<br /> Effectivement, votre PC a de bonnes specs pour du 1080 sans trop consommer. Top.<br /> Merci pour votre réponse !
Nmut
Et j’ai une Vega56 qui pompe la moitié du jus à elle seule!
dovichino77
@PierreKail<br /> Salut !<br /> Je tenais a répondre a ton commentaire car je le trouve un peu bête, sans mechanceté de ma part.<br /> Cette carte ne s’adresse pas a toi mais plus aux personne qui ont des écrans 4k, voir de la VR ou multi écran.<br /> sais tu que les 320W théorique est la consomation max, il te suffit juste d’activer la synchro verticale et ta carte consommera ce qu’elle a besoin.<br /> arrete de faire ta victime, tu as le droit d’avoir ton point de vue. Bref on a pas tous les même exigences et heureusement.<br />
OpenJbx
Pour Flight Simulator, il faut attendre que RTX IO soit dispo sous Windows 10. C’est typiquement là dessus (le stream de textures) que les gains peuvent être potentiellement énormes.
dovichino77
Faut surtout attendre une directx 12 et qu’ils optimisent leurs avions et scenes. Exemple Aerosoft a un aéroport gratuit disponible qui est très bien fait et j’ai comparé avec celui d’origine. Non seulement il est beaucoup plus détaillé mais en plus j’ai gagné 4 ou 5fps dessus.
narco
Tas vraiment lu en diagonal. Ce n’est clairement pas le cas pour tous les jeux où tu perds 50% de perf avec un 4770k…
Nmut
Bon je ne peux pas te dire la conso juste du bench, je ne peux pas arrêter ma machine (je suis au milieu d’un calcul qui va durer environ 4 jours… <br /> Bon, il y a 2 coeurs réservés pour le process de mon boulot, mais j’ai eu plusieurs fois des saccades assez fortes, le fps min n’est probablement pas bon (le process se limite à 2 coeurs pour que je puisse bosser mais il se balade beaucoup entre les coeurs et ça a peut-être un impact…).<br /> Edit: je viens de voir la fréquence du proc et la mémoire vidéo ça ne marche pas bien leur détection, mais ma version date un peu…<br /> Pour info, j’ai une Vega par pour la conso en jeu (!) mais pour les perfs pour mon boulot, elle est légèrement plus rapide en OpenCL qu’une 1080Ti (et en plus elle consomme moins dans ce cas là).
Nmut
Heu, moi je comprends comme lui. En 4k ultra, on s’en cogne un peu du proc. 98fps avec un monstre vs 91fps avec un vieux tromblon, c’est plutôt une démonstration éclatante que le gros proc n’est pas vraiment indispensable quand la carte est le maillon faible! <br /> Après, c’est sûr qu’en 1080p avec des fps qui n’ont pas de sens dans la plupart des jeux pour la plupart des joueurs, avec une carte pas logique pour cette résolution, le vieux proc est largué.
armss
Attends plutôt 3 générations, on sait jamais.
soixante
c_planet:<br /> @Clubic : Salut, merci pour la review, Ceci dit sous Firefox 80 et win7, vos graphs ne s’affichent pas (ok sur opera et brave).<br /> Comme indiqué dans le cadre sous l’introduction, les bloqueurs de publicités empêchent les graphiques de s’afficher.
c_planet
ah ok. merci.<br /> Bon, ben … décidément, tout fout le camp … :_(
Nmut
Cool n’est pas le premier terme qui me vient à l’esprit, le bébé chauffe bien! <br /> Mais c’est une excellente carte pour le prix (240€) et pour certaines utilisations. Je manipule des quantités de données énormes et la gestion mémoire est infiniment plus efficace et facile sur cette carte que sur les Nvidia, sans compter la bande passante ahurissante. En plus c’est l’équilibre parfait avec mon proc, mon appli est quasiment à 100% des 2 cotés quand j’en ai besoin.<br /> Et ça me permet de jouer en 1080p sans soucis, voir de faire un peu de VR (là, j’atteins ces limites, les 90fps ne tiennent que si je baisse un peu les graphismes, voir beaucoup sur DCS).
panta
la RTX 3090 serait jusqu’à 1,5x plus rapide que la Titan RTX ! ben dis donc ???<br /> en attendant un test complet de cette CG , je pense que NVIDIA a déclassé la nouvelle 3090 remplaçante de la titan rx par une offre haut de gamme grand public<br /> le prix très bas comparés a l ancienne concerneraient ils aussi un changement de pilotes non certifiés professionnels ?<br /> si l’auteur de l’article a des info merci de nous les faire partager ou émettre son avis personnel compétant dans ce domaine<br /> mille fois merci Panta<br /> edit concernant un test de la 3090 ici , quels seraient les critères : jeu ; vr ; etc
frigo
Ils ont annoncé "jusqu’à x2 " or il semblerait qu’on en soit assez loin ( on y sera peut être avec des drivers plus mature à voir )<br /> Le gap de perf en soit est plutôt bon pour un saut de génération surtout en RT mais il se fait malheureusement au prix d’une augmentation de la conso assez énorme<br /> Si on était resté sur le même process, ça serait passé crème, mais là y’a de quoi largement relativiser les gains de perf voir même d’être déçu<br /> Ampere c’est un peu Fermi 2.0 ^^<br /> Après, reste à savoir quelle est la part de responsabilité de Samsung dans cette histoire…
frigo
On verra les prix de ces cartes et surtout la réponse de AMD ! Avec SON BIG NAVI XTX ! le 28 octobre prochain !<br /> En tous cas la conclusion de Clubic est loin des attentes des Teasing Nvidia professant un saut de performance Multiplié par 2 ! par rapport à Turing !
pecore
De ce que j’ai pu voir cette carte s’adresse en fait aux amateurs de 4K ou à ceux qui compte y passer prochainement. C’est plutôt logique vu que le 4K est en passe de devenir la nouvelle norme. Moi même j’y suis passé pour mon écran PC il y a de cela un an et pour mon retro-projecteur il y a à peine 1 mois alors je cherche en effet une carte capable d’afficher une telle résolution sans trop transpirer. Pour l’instant ma radeon RX 580 fait le job, et même très bien, mais jusqu’à quand ? En revanche, pour ceux qui jouent en HD ou 1440p et ils sont nombreux, aucun intérêt.<br /> Il demeure néanmoins que 720€ minimum c’est BEAUCOUP trop cher pour moi. 400€ c’est généralement mon budget maximum pour une carte graphique et je pourrais aller jusqu’à 500€ si on me tord le bras mais 720€ ? hors de question. J’ai donc la double attente de la sortie des big navi et de celle du RTX 3870 et j’espère qu’AMD ne va pas trop tarder à dégainer parce que pour l’instant le coup de com de Nvidia est plutôt réussi.
tx41
Perso c’est sa conso qui me refroidit, 100 W de plus que ma 1080 TI (1440 p) mon alim de 850 W platinium tient la route mais à voir si ce n’est que pour le confort du RTX et les derniers jeux (je le vois aux t°) qui la pousse dans ses derniers retranchements. À méditer mais surtout ne pas se précipiter.<br /> Édit: non ce n’est pas que pour la 4 K, les derniers jeux sont devenu très gourmand en ressources (souvent pour pas grand chose), ma TI n’est pas à la rue mais elle est très sollicité.
pecore
Je ne fais que lire les tests (différents sites) qui parlent de 10% de mieux en moyenne en 1440p par rapport à une RTX 2080. Du coup on peut se demander si la carte est si intéressante que ça : pas grand intérêt en HD ou VQHD et très chère pour ceux qui jouent en 4K. Je trouve étonnant que les testeurs, tous sites confondus, glissent aussi rapidement sur le fait que ce produit n’est finalement intéressant que pour une minorité de personnes disposant de l’équipement ad hoc et au portefeuille bien garni.
pocketpit
«&nbsp;À l’heure où les consoles next-gen sont prêtes à pointer le bout de leur nez, NVIDIA frappe fort en annonçant un rapport performances/prix largement supérieur à celui de la génération précédente, suffisamment du moins pour poser la question d’un upgrade en fin d’année.&nbsp;»<br /> Chez moi c’est ce qui me reste à la fin de l’année qui m’interroge plus que le reste
louchi
Ca fait combien de temps, que l’on pouvait s’offrir une bonne carte graphique à prix correct ? 10 ans ? je crois…maintenant faut vendre un rein, ça craint.<br /> Combien coutera la petite soeur 3060 ? perso, étant un gros g33k, avec un peu de tune, j’arrive pas à mettre plus de 350-400 euros dans une carte graphique. Je suis l’inverse d’un radin, c’est juste, le principe…c’est comme les smartphones haut de gamme…qu’on pouvait avoir moitié prix l’année d’après, mais maintenant, ça fait 800 euros l’année d’après lol…donc non
frigo
Une bonne carte graphique ? mais vous êtes tous payé par Nvidia sur Clubic ?!<br /> 324 watts de consommations en moyenne,sur une vingtaine de jeux.305 watts mini pour 324 watts maxi .On constate des pics dépassant les 360 W !!!<br /> Oui, cette carte est complètement raté !<br /> L’Efficacité énergétique est vraiment mauvaise <br /> En attendant toujours la réponse d’AMD ,le 27 Octobre prochain
juju251
TuxPhilips:<br /> les verts ont frappé fort sur cette génération, avec un design des plus réussis -<br /> Design réussi LOL. On s’en fout complètement du design… C’est brique recouvert des ventilos. On voit jamais le bas de la carte graphique.<br /> Sauf que le design, ce n’est pas juste le look, mais la conception en elle même.<br /> Le ventilo «&nbsp;traversant&nbsp;» c’est une bonne idée.<br /> frigo:<br /> Une bonne carte graphique ? mais vous êtes tous payé par Nvidia sur Clubic ?!<br /> Allez, petite diffamation, déguisée sous forme de pseudo question au passage …<br /> frigo:<br /> L’Efficacité énergétique est vraiment mauvaise <br /> Pas selon nextinpact pour qui après calcul l’efficacité est meilleure que sur la RTX 2080 (la consommation augmente, mais les perfs aussi).<br /> Il faudra effectivement voir la réponse d’AMD fin Octobre.
AlexScan
Tu fait exprès de troller frigo j’espère… par que si c’est ce que tu pense vraiment ça me fait peur…
Urleur
pas pressé, surtout que ma 1070 ti fait encore son job et finalement je m’arrête au format 3060, finis de mettre des sous. Le seul hic reste la taille ok dans une grande tour mais dans une moyenne ou mini ?
AlexScan
Citation<br /> Ca fait combien de temps, que l’on pouvait s’offrir une bonne carte graphique à prix correct ? 10 ans ? je crois…maintenant faut vendre un rein, ça craint.<br /> Combien coutera la petite soeur 3060 ? perso, étant un gros g33k, avec un peu de tune, j’arrive pas à mettre plus de 350-400 euros dans une carte graphique. Je suis l’inverse d’un radin, c’est juste, le principe…c’est comme les smartphones haut de gamme…qu’on pouvait avoir moitié prix l’année d’après, mais maintenant, ça fait 800 euros l’année d’après lol…donc non<br /> Citation<br /> Je suis comme toi… il y a + de 15 ans prendre la dernière CG la plus haut de gamme coûtais 500€…(Radeon 9800 Pro/Geforce 4 Ti 4600)<br /> Et le modèle rapport Q/P coûtais 200€ (Radeon 9700/Geforce 4 Ti 4200) et se trouver quasiment équivalent au modèle HDG une fois overclocké… donc on pouvait jouer à tous les jeux en ULTRA sans se ruiner…<br /> Aujourd’hui la moyenne gamme est à + de 500€… A 200€ ta une pauvre carte entrée de gamme… c’est du délire on est d’accord.<br /> Attend la 3060ti/RX6000, le rapport Q/P pour jouer en 1440p sera correct je pense… ou achète une console nextgen.
Eths25
Je vais la prendre sur rueducommerce, qui propose le rachat à 80% au bout d’un an.
c_planet
Smartphone Android, FF ou Samsung internet<br /> 1080×2340 359 KB<br /> bien sûr, faudrait diminuer la police dans le navigateur mais même à mon minimum de confort (70%) ça passe pas. c’est un peu de la rigolade chez infogram le «&nbsp;Optimized for mobile - Infogram uses state-of-the-art technologies to offer the best possible"experience&nbsp;»
wawa911
Mais que valent ces cartes graphiques par rapport à celles embarquées sur les consoles de Sony et Microsoft? Car c’est quand même plusieurs fois le prix!
fredmc
Franchement jouer en 4K sur un écran de 24 pouces ça n’a pas vraiment de sens … en lus avant que tout le monde soit en 4K sur pc y aura une paire de nouvelles cartes graphiques qui seront sorties… le full hd a encore de belles années devant lui …<br /> Tom’s Hardware : actualités matériels et jeux vidéo – 7 Nov 19<br /> Enfin ! Un développeur explique que le gaming en 4K est totalement inutile<br /> La 4K est énormément gourmande en puissance, et énergivore, pour un bénéfice négligeable, mais le marketing l'ignore...<br />
airgobs
Tu prêches un convaincu!
OrangeDuck
Pour FS2020 ce n’est pas vraiment une surprise étant donné qu’il est très gourmant en VRAM. Après differents tests, il semblerait que pour ‹&nbsp;approcher&nbsp;› les 60FPS en 4k, il faudrait au minimum 16-18Gb de VRAM. La Titan RTX y arrive presque. Je suppute que la 3090 devrait le faire aussi avec ces 24Gb.
MisterG55
une 3050ti à 160w (et 250€) max serait l’idéal
c_planet
Oui, et surtout, sur PC, il y a mille façons de jouer; chacun fait ce que bon lui semble. Et ça, ça ne ressort pas assez dans les commentaires sur les sites.<br /> Y a juste un truc qui nous la met un peu à l’envers, c’est la définition native de nos écrans depuis qu’on a tué le CRT. On peut dire ce qu’on veut, en dehors de la taille native c’est pas top. Pour le boulot, je serais incapable de me passer de 4K mais, pour le jeu, un bon 1440p me conviendrait tout à fait (en alternance avec un 1080p, lol). Le pire c’est que j’attends qu’un 8k apparaisse dans mon budget, et ça sera encore plus dommageable pour mes jeux.<br /> Bon, maintenant, l’article de TH, c’est une tempête dans un verre d’eau, ils en font des patacaisses parce qu’ils ont trouvé une interview d’un développeur indie qui n’a pas travaillé sur une texture plus de 20 minutes sur tout son mois.<br /> un article dans le style suivant, m’aurait d’autant plu :<br /> Enfin ! Un joueur pc explique que les jeux récents demandent trop de puissance pour un bénéfice négligeable mais le marketing l’ignore. Dans un éclair de franchise, ce joueur explique qu’il retrouve une meilleure expérience de jeu, sans concession graphique, dans le catalogue de générations précédentes. La découverte de titres inconnus est intacte et les disponibilités sont instantanées.<br />
narco
Les moins<br /> "On cherche encore. "<br /> Le fait que ce soit un paper launch peut-être ? xD
Kilg0re
Le siphonnage de manche over 9000. Qu’ils fassent un papier sur les annulations massives et la mauvaise gestion du launch de cette carte ratée.
Mel92
A ce niveau, il peut même venir à l’idée que la carte n’ait pas été commercialisée, un peu comme l’hydravion d’Howard Hugues : on fait croire à un produit, on en est super fier, on le montre même à un public trié sur le volet, mais en réalité, c’est juste un prototype qu’on a aucune intention de produire.<br /> En tout cas, la presse n’a pas vraiment été à la hauteur sur le coup. Vanter en long en large et en travers les mérites d’une carte inaccessible, c’est … moyen.<br /> NVidia n’est pas le premier à «&nbsp;lancer&nbsp;» un produit invisible, mais là c’est un peu gros car cela perturbe tout le marché.
pecore
Contrairement à l’hydravion la carte existe et elle sera bien commercialisée, mais à quel prix ? surement pas à 720€ comme annoncé au départ si j’en crois ce que je vois. Je suis d’accord, je trouve la presse spécialisée, toute la presse apparemment, bien complaisante envers un produit qui n’est pas encore vraiment disponible et dont le prix final moyen n’est clairement pas encore bien défini. Je ne dis pas qu’on ne peux pas apprécier le produit qui a d’indéniables qualités mais cette avalanche de louanges et le fait de passer outre les défauts (les «&nbsp;moins&nbsp;» soi disant inexistants), devient pénible et presque suspect. Un peu plus d’esprit critique aurait été le bienvenu et aurait permis de souligner, au hasard, la taille de la carte inadaptée à pas mal de boitier, sa consommation qui obligera à avoir une alimentation puissante, le fait que seules les très hautes résolutions en tirent vraiment partie et enfin que la carte n’est pas encore disponible en volume et ne coutera vraisemblablement pas le prix annoncé. Réveillez-vous bon sang !
fredmc
Tu regardes pas bien de nombreux jeux pour pas dire la plupart tournent encore très bien avec un i5 7600k et un gtx 1660 … les deux ont plus de 3 ans. Quant à te dire voilà ce que la machine peut faire sur pc c’est impossible… pourquoi ? Parce qu’on a pas tous le même et qu’il faut vendre le jeu à un maximum de personnes là où une console c’est la même pour tout le monde … ça sera peut être possible si le cloud gaming se démocratise et que tout le monde joue avec la même configuration
pecore
Tout à fait d’accord avec toi Vimaire. J’ai toujours trouvé que les concepteur de jeux PC faisaient preuve d’une certaine paresse pour ce qui est d’optimiser leurs jeux et qu’ils se défaussaient sur le matériel des joueurs PC, «&nbsp;pas assez puissant&nbsp;». Mais à coté de cela on avait des jeux pour des consoles techniquement bien moins puissantes beaucoup plus beaux et fluides que sur PC. Va comprendre Charles.<br /> Du coup et comme tu dis Vimaire, heureusement qu’il y a les consoles et les jeux superbes qui sortent dessus pour nous rappeler que la puissance ne fait pas tout et qu’il n’y a pas forcement besoin de vendre un rein pour avoir des images fluides et qui flattent la rétine, surtout en ce moment.
syr_anzen
Effectuer les tests correctement<br /> Faites en sorte que le matériel soit en correspondance avec la carte<br /> La carte mère n’a pas de PCI Express 4, se qui entraîne un étranglement du débit les performances sont réduits considérablement.
kyosho62
syr_anzen:<br /> La carte mère n’a pas de PCI Express 4, se qui entraîne un étranglement du débit les performances sont réduits considérablement.<br /> Pas du tout, comme c’était le cas avec le passage PCIe 2.0 &gt; 3.0.<br /> Il n’y a pas de différence avec les cartes actuelles.
c_planet
Avec une mobo Pcie 3.0 la 3080 est 1% moins rapide. (en 2.0 c’est -4%)
Blap
Va falloir sortir des noms parce que les jeux n’ont jamais été plus beaux et encore moins plus fluides sur console.
Proutie66
Tu dois être un troll… Tous les jeux (ou presque) sortent et sur PC et sur consoles.
pecore
Pour le «&nbsp;plus fluide&nbsp;» cela tiens surtout à la technique. Le jeu console étant calibré au poil pour le même matériel, il n’y a pas (ou presque pas) de risque de baisse de framerate dès qu’une scène se met à contenir d’un seul coup plein de détails, alors qu’une seconde avant tout allait bien, comme c’est le cas sur PC.<br /> Pour le «&nbsp;plus beau&nbsp;», je suis un gamer depuis un certain temps et je pourrais citer, au hasard, les jeux Resident Evil Code Veronica et Shadow of Memorie, sur Dreamcast et PS2, qui affichaient insolemment des personnages aux mouvements déliés et aux visages lisses et expressifs quand nous, joueur PC, n’avions que des personnages aux mouvements de robots et aux visages taillés à coups de serpe.<br /> Aujourd’hui j’ai lâché le milieu console depuis bien longtemps mais de ce que j’ai pu voir les plus beaux (graphiquement) jeux comme Last of Us, Detroit ou Metal Gear Solid sortent d’abord sur console et ensuite, et pas toujours, sur PC.
Bombing_Basta
Nous vous laissons découvrir les résultats par jeu et résolution d’écran :<br /> Pas d’image qui s’affiche…
kyosho62
Attention, les bloqueurs de publicité peuvent empêcher l’affichage des graphiques hébergés sur Infogram.
Bombing_Basta
Je vois toutes les autres images, tant pis pour celle là.
bmustang
tellement fracassante que LG/nvidia ne fonctionnent pas ensemble ?
renard38
17% d’écart avec la 2080ti…en 4k
c_planet
+31.7% : http://tenalpc.free.fr/08/2020-09-18_15h24_16.png
renard38
regarde le test de jigflo sur youtube ou discoveri
c_planet
Cherche encore un peu, tu finiras bien par trouver un kevin-mouloud qui fanfaronne avec +17% en faveur de la 2800ti entre ses devoirs et son rangement de chambre.<br /> Compil des 18 sites hardware, 1910 benchs : gain par rapport à une 2800ti : +32% https://www.reddit.com/r/nvidia/comments/iu2wh5/nvidia_geforce_rtx_3080_meta_review_1910/?utm_medium=android_app&amp;utm_source=share
c_planet
jigflo<br /> Le gars qui voulait mettre minable le marketing nvidia mais qui prouve juste qu’une nvidia à 720€ a moins de potentiel oc qu’une autre nvidia à 1260 €, un génie emmuré …
renard38
c’est bien les mecs comme toi qui font rire…720 contre 1200 la question est vite repondue,tien au fait vu que t’es meilleur,monte ta chaine et montre nous :)…18 fps d’ecart sur control en 4K…bref…a l’inverse ceux qui ont vendus leurs 2080Ti et qui biensur ne jouent pas en 4k (j’en connais pas mdr,la plupart sont en 1444p) ce sont fait douillés
c_planet
3 Trolls dans un paragraphe de 5 lignes, je crois que tu viens de clore les discussions sur l’article.
Blap
Donc que des jeux qui tournent mieux sur PC. Ta mémoire doit te jouer des tours, Shadow of Memorie est tellement flagrant. Et Code Veronica n’est jamais sorti sur PC.
pecore
Je n’ai jamais dis le contraire tu m’as mal compris. Je parlais de deux jeux consoles plus beau à l’époque que les jeux PC en général, pas plus beaux que leur version PC qui, effectivement, n’existent pas.
Blap
Ah, donc on compare les concombres avec les satellites my bad
c_planet
@Vimaire<br /> Last Of US 2, je me dis: « ok, voilà ce que la console a dans le ventre, voilà le maximum qu’ils peuvent faire aujourd’hui sur ce support ».<br /> J’avoue ne pas connaitre la 3D standard sur ps4, mais j’espère que TLOU2 n’est pas considéré comme un flagship 3D : intérieurs quasi minimalistes plongés dans le noir (Rage 1 faisait trois fois mieux il y a 9 ans.), les extérieurs font à peine mieux, textures banales, lumière du jour typé studio photo. Pour venir défendre TLOU2 dans un topic cg pc flagship, t’es passé à côté du travail des développeurs.<br /> Sur PC, je ne retrouve pas ça, je vois des jeux qui pourraient tourner tout à fait sur une PS3 ou à peu de choses pret.<br /> Lancer un jeu pc en 1280x720 en 2020 … intérêt = zéro, je préfère encore piquer la switch de mes gamins.<br /> edit : tous les jeux pc qui vont chercher la puissance graphique, c’est pas compliqué à trouver c’est tous ceux que tu te réjouis d’installer quand tu changes la cg. Perso, si je passais de gamme pour allumer du 4k ultra je commencerais par Quantum Break sorti il y a 4 ans et demi, mais il y en a plein d’autres. même avec un carte moyenne comme une 1660TI, lance Dishonored 1 (qui a 8 ans) en 4k ultra, tu vas voir une 3D magnifiquement cohérente.
c_planet
Pour venir défendre NAMEYOURGAME<br /> Ok, en fait tu voulais écrire «&nbsp;Sur PC, je ne (veux pas) retrouve(r.) pas ça.&nbsp;»<br /> ps : http://www.gameblog.fr/news/91157-the-last-of-us-2-e3-2018-vs-jeu-final-y-a-t-il-eu-downgrade-
loderunner
A Steevenoo<br /> C’est n’importe quoi, fs2020 est en d3d11<br /> Il faut attendre la maj en d3d12, et là, il y aura une grosse différence.<br /> oubliez vulkan, l’orgueil de microsoft ne lui permet pas de l’utiliser.<br /> Sinon en ce qui concerne les cartes série 3000, il ne faut pas être naïf.<br /> Les prix sont trop élevés, mais c’est voulu… et stratégique<br /> Les «&nbsp;programmes robots&nbsp;» étaient prêts depuis longtemps pour acheter TOUT ce qui était dispo.<br /> Pourquoi?<br /> Parce que les revendeurs ont encore des stocks importants de cartes séries 2000 plus chères que les 700 euros des rtx 3000.<br /> Donc tout faire pour ne pas mettre sur le marché des cartes plus puissantes et moins chères.<br /> Leurs stocks seraient invendables et ils auraient eu une énorme perte.<br /> Les revendeurs ont vus ce qui allait arriver à la sortie des rtx 3000<br /> Retenez bien ceci :<br /> Vous verrez à la vente des rtx 3000, quand leurs stocks de série 2000 seront vendus, pas avant<br /> Estimé au début 2021, rien à voir avec une pénurie.<br /> Tout comme le covid, mensonges sur mensonges, le people est toujours pris pour un abruti<br /> Je voudrais ajouter un autre point :<br /> Nvidia confirme la pénurie jusqu’en 2021, à mon avis, il s’agit d’un accord passé secret entre les revendeurs/distributeurs<br /> afin qu’ils puissent écouler leur stock tout en évitant à nvidia de les dédommager de leur perte.<br /> Ils ne vont certainement pas se tirer une balle dans le pied en nous l’avouant.<br /> Perso je peux attendre des mois, mais je ne tomberait pas dans leur magouilles.<br /> Libre à vous de dépenser plus que la valeur annoncée et jouer leur jeu
loderunner
A c_planet<br /> La 4k c’est du trompe l’oeil et du commercial<br /> Perso je reste sur du 2k PARCE QUE mon écran est du 2k, je ne l’ai pas choisi pour jouer au départ.<br /> Du 4k? LOL<br /> Les textures sont TRES rarement en 4k, ça bouffe de la ram vidéo, ça fait plus ramer…<br /> Un jeu en 4k avec textures hd ou 2k sera BEAUCOUP plus fluide qu’avec des textures 4k.<br /> Ce qui profite du 4k ce sont UNIQUEMENT les polygones, pas le rendu du contenu de ces mêmes polygones.<br /> C’est exactement ce que faisait les anciens jeux, par manque de puissance, les textures étaient en 256x256 upscalé (il y avait pire)<br /> Le 4k c’est juste du blabla pour vendre (pour les jeux), à ne pas comparer avec les films réels.<br /> Va faire tourner Red Dead Redemption 2 en 4k avec QUE textures 4k, tu vas voir, la 3080 et même 3090 aura du mal.<br /> Alors quand on montre des vidéos avec la 3090 et son 8k, je suis MDR, je doute que les textures soient en 8k !!!<br /> LA 4k en jeu vidéo, c’est un petit plus pour éviter une bouille de pixels quand il y a beaucoup de polygones au loin, très proches les uns des autres, genre fs2020 sur une grande ville très fournie en bâtiments et seulement pour les bâtiments assez éloignés.<br /> La TRES TRES grand majorité des joueurs, fans de 4k croient que TOUT le contenu du jeu est en 4k LOL<br /> alors que c’est juste les polygones.
c_planet
@loderunner<br /> Du 4k? LOL<br /> Les textures sont TRES rarement en 4k<br /> …<br /> la 3090 et son 8k, je suis MDR, je doute que les textures soient en 8k !!!<br /> mais ça n’a aucun rapport, ce sont les noobs qui associent textures 4K aux écrans 4K.<br /> LA 4k en jeu vidéo, c’est un petit plus pour éviter une bouille de pixels quand il y a beaucoup de polygones au loin, très proches les uns des autres, genre fs2020 sur une grande ville très fournie en bâtiments et seulement pour les bâtiments assez éloignés.<br /> Crois y fort. Le problème ,c’est que c’est faux. Tout ce qui est racing, fps, tps, avec de hauts fov bien confortables et des distances d’affichages modernes profite de plus de netteté/précision dans le rendu une fois passé le premier plan.<br /> comparaison 4k vs 2k, Project Cars 2 max settings : http://tenalpc.free.fr/08/2020-10-09_02h32_47.mp4 (enregistrer sous … puis dans vlc touche «&nbsp;f&nbsp;», puis «&nbsp;o&nbsp;» pour afficher pixel sur pixel. Si il y a un effet zoom, c’est parce que t’es en écran 2K.)<br /> tout, dans les deux tiers de la scène, apparaît plus détaillé plus vite en 4k plutôt qu’en 2k. Le détail qui tue pour le gameplay ce sont les vibreurs (pas des immeubles depuis un avion, tu vois …).<br /> A une époque j’avoue avoir eu ce discours de privilégier la puissance cg en fsaa en définition inférieure plutôt que de taper le max du moniteur, mais c’était il y a plus de 15 ans, sous CRT, les jeux quittaient le stade anguleux et les distance d’affichage confortables était un trophée inaccessible. On n’en est plus là.
c_planet
ps : mais c’est pas inclusif, ce sont des parenthèses, <br /> je te faisais juste remarquer que d’abord tu te plains de ne pas retrouver ce que tu cherches sur pc, donc je te cite qques exemples sur pc qui pourrait convenir, sur quoi tu me fais un copier coller de mon texte en inversant les plateformes, comme ça fait un peu «&nbsp;tu te bouches les oreilles et tu fais là, là, là&nbsp;» … je te fais remarquer que tu aurais du dire «&nbsp;je ne veux pas retrouver de jeux sur pc qui me ferait cet effet&nbsp;».<br /> ceci dit, tu cherchais des exemples d’exploitation maximale du matos sur pc. Bon comme on a dit ça n’existe pas, car pc veut dire 35 cg différentes, pareil pour les cpu, etc… Mais sur 1660ti, je crois que j’ai trouvé, c’est New Colossus, … arrivé au niveau du sous-marin, puis de new-york dévasté, le nombre de détails double et lesframerate ne bronche pas, du beau boulot.<br /> Comme quoi, rien ne vaut le ressenti personnel. C’est comme en musique, t’auras beau faire des tests, c’est ton oreille qui juge, pas le papier.<br /> je veux bien, mais comme je l’ai déjà dit, c’est un news hardware sur une nouvelle puce 3D, … c’est pas totalement «&nbsp;ressenti interdit&nbsp;» mais c’est pas loin.
pecore
J’ai vu que cet article vieux d’un mois et demi était revenu en haut de la liste des articles fraichement parus, pourquoi ? Il y a quelque chose de différent pour c’est juste pour (re)faire de la pub aux RTX 3080 ?
duck69
Faut aussi comprendre que la 4K c’est pas du 1080p de prolo , c’est pas avec 200w que tu arrives à quelques chose. j’ai une vega64 et en 2017 c’etais le passage obligé pour jouer en 1440p/2160p. En 4k , la carte graphique doit se taper 497 millions de pixel en 60fps et c’est sans les textures et les filtres. en 1080p c’est 124 millions …
Urleur
bon test curieux de voir les 3060.
_Dorsoduro
Faire autant d’éloges et de pub pour du papier launch. Sérieux NVIDIA a déjà perdu mon respect. Clubic on sait que vous êtes renuméré par la pub et articles promotionnels. Mais ayé au moyen l’honnêteté de signaler écrire quel lignes sur les stocks catastrophiques et les cartes touchées par des bugs.
pecore
Et maintenant c’est l’arlésienne 3070 qui trône en première page et en gros plan depuis deux jours. Cela commence à devenir franchement indécent. Comment espérer lire des articles sincères et objectifs quand tu vois ça. Je vais rester pour l’instant abonné à Clubic mais en fonction de ce que je lirai sur les cartes graphique AMD il se peut que je me désolidarise du site. Ce sera mon petit test perso.<br /> Mais je suis bien déçu, je pensai que Clubic était un peu différent des autres sites. Ça m’apprendra à trop rêver.
c_planet
Ta cg est tout à fait capable de faire tourner une majorité de jeux en 4K@60fps. Évidement, ce n’est pas en regardant des benchs journalistes qu’on risque de s’en rendre compte.
panta
personnellement j avais au départ une préférence pour la 3090 en duo multicartes , après l’annonce d’AMD avec sa Radeon™ RX 6900 XT performance et prix très bon , certes apparemment pas de multicarte possible pour cette dernière , dommage !<br /> je vais attendre une offre gpu AMD PRO nouvelle génération pour du multicartes accouplé a un gros cpu threaripper AMD création art et VR<br /> une seconde machine d’appoint avec une RX 6900 XT+ cpu AMD en déplacement , ça ira comme ça<br /> côté nvidia , je n’attends plus rien de leur part , d ailleurs savent t’ils eux même ce qui veulent ou peuvent vendre réellement , de plus les prix annoncés ne seront pas tenus lors des nouvelles disponibilités
duck69
ça deviens juste avec 8gb de ram et la puissance de la carte , je suis souvent vers les 35/45fps , Doom Eternal est l’exception avec 60fps possible.<br /> Une vega64 c’est devenu une carte 1440p ou 1080p HFR , guerre plus.
c_planet
Je prépare un tuto pour régler ses jeux en 4K@60fps sur une simple GTX 1660TI 6GB. je t’enverrai le lien quand c’est posté (sur hfr).<br /> edit :<br /> 3840×2160 1.67 MB<br /> 3840×2160 1.74 MB<br /> 3840×2160 1.71 MB<br /> 3840×2160 1.33 MB<br /> 3840×2160 1.38 MB<br /> avec un Vega64, ça ne devrait pas être compliqué de trouver les curseurs … à monter, lol.<br /> edit 2 :<br /> et Read Dead Redemption 2<br /> 3840×2160 129 KB
duck69
Je suis aussi sur hfr ! de mes test perso , les niveau de détail ultra sont en général très gourmand pour pas grand chose , high suffit la plupart du temps.<br /> Après c’est pas vraiment grave , je joue principalement à tekken 7 et doom eternal.<br /> En février prochain je fais une config toute neuve.
Voir tous les messages sur le forum