Test NVIDIA GeForce RTX 3080 : Ampere frappe fort

Colin Golberg
Par Colin Golberg, Rédacteur en chef adjoint.
Publié le 24 décembre 2020 à 13h34
RTX 3080

Enfin ! Après des mois de rumeurs et de leaks en pagaille, NVIDIA s'est décidée à révéler ses nouvelles cartes graphiques grand public, les GeForce RTX de la série 30. S'il y a deux ans, l'architecture Turing proposait une véritable révolution avec l'introduction du Ray Tracing en temps réel et d'unités dédiées à l'IA, cette année, le caméléon propose une évolution qui devrait en théorie faire s'envoler les performances. Alors ça donne quoi ?

Les plus
  • Des performances monstrueuses (jusqu'à 2x les performances de la RTX 2080 pour un prix de lancement inférieur)
  • Un design Founders Edition très réussi
  • Un système de refroidissement efficace
  • Silencieuse
Les moins
  • On cherche encore, mais allez pour pinailler, le connecteur d'alimentation propriétaire nécessite un adaptateur disgracieux dans nos beaux boîtiers à vitre latérale

Attention, les bloqueurs de publicité peuvent empêcher l'affichage des graphiques hébergés sur Infogram.

MàJ 21/09 : ajout des performances en overclocking

Introduction

Avant d'entamer une plongée technique dans la nouvelle architecture « Ampere », revenons un peu sur l'historique récent des GeForce.

Il y a deux ans, NVIDIA avait profité de la Gamescom pour dévoiler le haut de gamme de l'architecture Turing, les GeForce RTX 2070, 2080 et 2080 Ti. L'équipe verte avait alors choisi de renommer ses GeForce GTX en GeForce RTX pour marquer le saut générationnel, et introduire les technologies RTX, intimement liées au ray tracing en temps réel.

En 2019, NVIDIA sortait un refresh de ses cartes graphiques sous le nom de GeForce RTX Super. Celles-ci proposaient un nouveau type de mémoire et des fréquences légèrement revues à la hausse, mais sans bénéficier d'évolutions majeures.

Et ce 1er septembre 2020, Jensen Huang, P.-D.G. de NVIDIA, a annoncé les nouvelles cartes graphiques haut de gamme sous Ampère, dans une diffusion live… depuis sa cuisine (je vous jure). C'est alors trois nouvelles cartes qui ont été présentées, la GeForce RTX 3080, qui nous intéresse aujourd'hui (et qui devrait être le flagship grand public de cette génération), la RTX 3070, plus modeste mais très véloce, et la monstrueuse RTX 3090, qui devrait se positionner à cheval sur les segments de la - feu - RTX Titan et de la RTX 2080 Ti.

À l'heure où les consoles next-gen sont prêtes à pointer le bout de leur nez, NVIDIA frappe fort en annonçant un rapport performances/prix largement supérieur à celui de la génération précédente, suffisamment du moins pour poser la question d'un upgrade en fin d'année.

Les chiffres parlent d'eux-même

L'architecture Ampere : plus évolution que révolution

Si NVIDIA est restée très succincte à propos de l'architecture Ampere lors de son événement d'annonce, nous avons pu, depuis, nous pencher plus en détail sur les subtilités de cette nouvelle architecture. Pour rappel, le constructeur avait annoncé que la GeForce RTX 3080 serait jusqu'à deux fois plus rapide que la RTX 2080 ; que la RTX 3070 serait plus véloce que la RTX 2080 Ti (pour 50 % de son prix), et que la RTX 3090 serait jusqu'à 1,5x plus rapide que la Titan RTX !

Mais comment doubler les performances de la RTX 2080 en seulement deux années de R&D ? Si dans un premier temps nous cherchions les réponses du coté de la finesse de gravure, la firme de Santa Clara nous a finalement surpris en démentant la plupart des rumeurs persistantes depuis la génération Turing.

Si les GPUs de la série 20 étaient gravés en 12 nm chez TSMC, c'est bien via le procédé custom 8 nm de Samsung que sont produites les puces de la série 30. Pour schématiser, ce passage au 8 nm permet d'agencer plus d'unités de calcul sur la surface du die, et l'équipe verte a tranquillement doublé le nombre de cœurs CUDA sur cette génération.

Et si on doublait le nombre d'unités FP32 ?

L'agencement des SM (Stream Multiprocessor) évolue peu par rapport à Turing : les cœurs RT passent en V2 et les cœurs Tensor passent en V3… On y reviendra.

On retrouve aussi toujours des unités dédiées aux calculs flottants (FP32), les plus courants pour les jeux 3D via rastérisation. En revanche, sur Turing, des unités étaient dédiées aux calculs d'entiers (INT32), alors que sur Ampere, ces unités sont capables aussi bien d’exécuter des instructions FP32 que des INT32. C'est par cette « astuce » que NVIDIA a doublé la puissance de calculs FP32 par SM.

En résumé, avec ce nouveau datapath (cheminement de données), NVIDIA annonce pouvoir traiter pour chaque cycle : 32 instructions FP32 ou 16 instructions FP32 et 16 instructions INT32.

RT Core de 2ème génération

Du coté des RT Core, les fameux cœurs en charge des calculs liés au Ray tracing, les nouveautés sont nombreuses. Si leur nombre passe à quatre par SM sur Ampere (versus huit par SM sur Turing), leur débit a été doublé pour améliorer les performances. Une fois que le SM a projeté un rayon, les RT Core vont exécuter les calculs requis pour reconnaître quel triangle rentre en intersection avec celui-ci (grâce à l'algorithme BVH). Sur Ampere, ce type de calcul pourrait prendre deux fois moins de temps que sur l'architecture Turing.

La gestion matérielle du flou cinétique devrait permettre des effets moins gourmands en ressources

Autre nouveauté : une fonction qui permet de connaitre la position dans le temps d'un rayon projeté, et ainsi générer matériellement des effets de flou cinétique, avec un coût réduit en termes de ressources graphiques.

Tensor Core de 3ème génération & DLSS 2.1

Les Tensor Core sont en charge des calculs liés à l'IA, et se manifestent particulièrement lors de l'utilisation du DLSS (Deep Learning Super Sampling), une technologie d'upscaling bluffante, qui a vu le jour sur la génération Turing. Le DLSS permet ainsi d'upscaler une image avec un coût en ressource réduit, utilisant des modèles préalablement calculés sur les supercalculateurs de NVIDIA.

Prenons un exemple pour illustrer cela plus simplement : pour un jeu rendu en 960p, le DLSS va produire une image en 1440p, presque aussi détaillée (voire plus détaillée selon les cas) que si l'image avait été rendue nativement en 1440p, le tout avec les performances d'un rendu en 960p.

Pour nous c'est simple, cette technologie est actuellement plus impressionnante encore que le ray tracing, tant le gain de performance est important. Bien sûr l'objectif est de compenser le coût important en ressource du ray tracing, mais le DLSS peut aussi vous permettre de jouer en 4K (voire 8K) avec des performances de premier ordre, et ce sans le ray tracing activé. Et si, malheureusement, trop peu de jeux exploitent cette technologie actuellement, NVIDIA travaille activement avec les développeurs pour y remédier.

Sur Ampere, les Tensor Core ont été optimisés pour compresser les données plus efficacement et donc traiter les instructions beaucoup plus rapidement. NVIDIA inaugure également le DLSS 2.1, une évolution mineure du DLSS 2.0 lancé en mars dernier.

Au rayon des nouveautés, on relève alors la prise en charge de la 8K, le support des résolutions dynamiques et de la réalité virtuelle. Une très bonne nouvelle, qui permettra de suivre la montée en définition des casques VR, tout en maintenant les performances nécessaires à une immersion fluide (sans vomir).

GDDR6X & Async Compute

NVIDIA inaugure également un nouveau type de mémoire graphique, la plus rapide du marché, la GDDR6X : 19,5 Gbps sur la RTX 3090 et 19 Gbps sur la RTX 3080. Avec une interface mémoire de 320 bit, la GeForce RTX 3080 a une bande passante mémoire 1,5x plus importante que la RTX 2080 Super.

Le signal peut désormais prendre 4 valeurs possibles, doublant les performances par rapport à la GDDR6

Évoquons, enfin, l'async compute, un terme barbare pour définir les capacités d’exécution simultanées du GPU. Déjà présent sur Turing, NVIDIA a cette fois amélioré l'exécution parallèle pour permettre aux jeux qui utilisent à la fois la rastérisation, le ray tracing et le DLSS de gagner en performances.

Sur Ampere, il est donc désormais possible d'utiliser les CUDA Core, RT Core et Tensor core simultanément pour accélérer le pipeline de rendu, et donc réduire le temps requis pour calculer une image.

Il faut presque deux fois moins de temps sur Ampere pour calculer une image

RTX IO : le SSD de la PS5 ?

Terminons notre décryptage de l'architecture Ampere avec une fonctionnalité annoncée par NVIDIA, mais qui ne verra pas le jour avant 2021. RTX IO devrait accélérer les chargements de vos jeux en permettant à votre carte graphique de discuter directement avec votre SSD, sans passer par la case décompression des données par le CPU. Il faut maintenant attendre que Microsoft déploie son API DirectStorage dans une prochaine mise à jour de Windows 10… On ne manquera pas de vous en reparler à ce moment là !

Cheh le CPU

Quoi de neuf du coté software ?

NVIDIA profite du lancement des GeForce RTX de la série 30 pour introduire deux nouveautés logicielles : Broadcast pour permettre aux streameurs de se créer un studio low cost, et Reflex pour réduire la latence dans les jeux compétitifs.

NVIDIA Broadcast

C'est peu dire que le streaming de jeux vidéo a le vent en poupe. NVIDIA l'a bien compris et propose une solution logicielle pour améliorer son setup sans se ruiner. Il suffira d'être équipé d'une GeForce RTX (série 20 ou 30) pour profiter de plusieurs raffinements : suppression des bruits parasites (RTX Voice), suppression de l'arrière plan à la manière d'un fond vert et cadrage automatique. L'équipe verte met également un SDK à disposition des développeurs qui souhaiteraient utiliser ces technologies dans leurs logiciels.

Broadcast utilise les Tensor Core et le machine learning pour améliorer ses résultats, et le build que nous avons testé est déjà convaincant, même si le découpage visuel peut encore être amélioré.

Pour vous montrer ce dont est capable le soft à l'heure actuelle, nous avons préparé une courte vidéo sur notre setup Clubic habituel :

Reflex

NVIDIA est aussi très investie dans l'e-sport, et a même créé une équipe de recherche dédiée à l'étude des performances du matériel informatique et des joueurs. L'objectif est de trouver des solutions pour réduire la latence et proposer les performances les plus en phase avec la pratique compétitive des jeux modernes, notamment des FPS.

C'est dans cette optique que la firme de Santa Clara lance Reflex, une suite de solutions pour analyser et réduire la latence du clic à l’affichage.

La suite Reflex sera disponible via un SDK, pour que les développeurs puissent l'intégrer à leurs jeux. Ci-dessous vous trouverez un aperçu des performances obtenues sur certains des jeux compétitifs les plus joués.

Présentation de la GeForce RTX 3080 Founders Edition

Avant d'entrer dans le vif du sujet, prenons encore un peu de temps pour présenter la GeForce RTX 3080 Founders Edition, le design de référence de NVIDIA. Et disons-le tout de suite, les verts ont frappé fort sur cette génération, avec un design des plus réussis !

La taille du PCB a été fortement réduite pour améliorer le design thermique

Fiche technique NVIDIA :

  • Cœurs CUDA : 8704
  • Fréquence Boost : 1,71 GHz
  • Configuration mémoire standard : 10 Go GDDR6X
  • Taille d’interface mémoire : 320-bit
  • Cœurs de Ray tracing : 68 cœurs de 2ème génération
  • Cœurs Tensor : 272 cœurs de 3ème génération
  • Architecture NVIDIA : Ampere
  • PCI Express Gen 4 : Oui
  • NVIDIA NVLink (SLI-Ready) : Non
  • HDMI 2.1 : Oui
  • DisplayPort 1.4a : Oui
  • Connecteurs d’affichage standard : HDMI 2.1, 3x DisplayPort 1.4a
  • HDCP : 2.3
  • Longueur : 285 mm
  • Largeur : 112 mm
  • Hauteur : 2-Slot
  • Température GPU maximale : 93°C
  • Consommation énergétique : 320 Watts
  • Alimentation système recommandée : 750 Watts
  • Connecteurs d’alimentation supplémentaires : 2x8 broches PCIe
NVIDIA annonce des performances doublées en 4K par rapport à la RTX 2080

Vous l'avez sûrement constaté sur les photos, les RTX 3080 et 3090 profitent d'un nouveau design intimement lié au système de refroidissement. Pour la première fois, NVIDIA propose un système intégrant un ventilateur sur chaque face des cartes graphiques. L'objectif est d'optimiser la circulation de l'air dans les boîtiers, en s'adaptant au flux « classique » d'une entrée d'air froid sous le boitier (ou sur la face avant), et d'une sortie d'air chaud par l'arrière du boitier, généralement au niveau du CPU.

Nous avons donc un ventilateur sur la face avant qui va expulser l'air chaud directement vers le haut du boitier, et un ventilateur sur la face arrière, qui va l'expulser directement à l’extérieur du boitier via un évent placé sur la face des connecteurs de la carte graphique, à la manière des refroidissements de typer blower.

Ce nouveau design optimise les flux d'air

En résulte, selon NVIDIA, un refroidissement plus efficace et plus silencieux que sur les cartes de la génération Turing : environ 20°C de moins et 10 dBA en dessous de la RTX 2080.

Concernant le SLI, NVIDIA a fait le choix de ne pas proposer de connecteur NVLink sur la RTX 3080, et de le limiter à la RTX 3090. Dommage pour les pros qui auraient pu utiliser deux RTX 3080 pour un cumul de performance déjà monstrueux.

Un nouveau connecteur 12 broches pour l'alimentation

Ici, exit les classiques 2x8 broches : NVIDIA inaugure sur ses designs de référence Ampere, un unique connecteur 12 broches beaucoup plus compact. Interrogé à ce sujet, NVIDIA nous a confié que ce nouveau connecteur était nécessaire à leur design thermique, pour libérer de l'espace à l'imposant radiateur.

En conséquence, la firme au caméléon fournit dans chaque boite de ses Founders Edition, un adaptateur 2x8 broches vers 1x12 broches. Si vous possédez une alimentation modulaire, on vous conseillera d'opter pour un câble compatible, qui devrait arriver rapidement dans toutes les bonnes crèmeries. En effet, si vous êtes sensible au cable management et que votre boitier est muni d'une vitre latérale, l'utilisation de cet adaptateur est loin d'être esthétique. Enfin sachez que NVIDIA a partagé le design de ce nouveau connecteur ; libre aux partenaires, voire aux concurrents, de l'utiliser.

L'adaptateur 2x8 broches vers 1x12 broches

Prix et disponibilité de la RTX 3080

La GeForce RTX 3080 Founders Edition sera disponible sur le site de NVIDIA dès le 17 septembre au prix de 719 €. Les modèles custom arriveront en même temps, et nous ne manquerons pas d'en tester quelques-un rapidement.

Protocole de test, consommation électrique et benchmarks synthétiques

Sans plus attendre, voici la configuration de test utilisée pour tous les benchmarks :

  • Processeur : Intel Core i9-9900K
  • Carte Mère : MSI MPG Z390 GAMING PRO CARBON (Chipset Intel Z390)
  • Mémoire : DDR4 Corsair Vengeance LPX, 2 x 16 Go, 3200 MHz
  • SSD : Samsung Série 960 EVO, 250 Go, M.2 (Type 2280)
  • Disque Dur : Seagate BarraCuda, 2 To
  • Alimentation : Be Quiet ! Straight Power 11, 850W Plus Gold
  • Boitier : Be Quiet ! Dark Base 900 (Pro 900 rev. 2)
  • Refroidissement : Watercooling AIO Be Quiet ! Silent Loop 360
  • Moniteur : ASUS ROG Swift PG27UQ 4K 144 Hz HDR GSYNC

Tous les tests sont effectués boitier fermé, sous Windows 10 Pro (2004) avec les dernières mises à jour disponibles via Windows Update. La version des pilotes Game Ready utilisée est la 456.16.

Voici la liste des cartes que nous avons testées :

  • GeForce RTX 2070 FE
  • GeForce RTX 2080 FE
  • GeForce RTX 2080 Ti FE
  • Radeon RX 5700
  • Radeon RX 5700 XT
  • GeForce RTX 2060 SUPER FE
  • GeForce RTX 2070 SUPER FE
  • GeForce RTX 2080 SUPER FE
  • GeForce RTX 3080 FE
  • GeForce RTX 3070 FE

À noter que certaines cartes n'étant plus en notre possession lors des benchmarks de la RTX 3080, leurs scores n'apparaissent que sur certains tests effectués auparavant.

On commence en beauté avec le test le plus gourmand de 3DMark, et la RTX 3080 explose littéralement la RTX 2080 avec une amélioration de près de 85 % des performances, proche du double annoncé par NVIDIA, uniquement sur un traitement de type rastérisation (pas de Ray tracing). Elle se paie même le luxe de surpasser de près de 40 % la RTX 2080 Ti !

Sur Unigine Superposition, l'écart est plus mesuré en 4K, avec 66 % d'amélioration par rapport à la RTX 2080 et 26 % par rapport à la RTX 2080 Ti. En 1440p, les performances s'envolent à nouveau avec 84 % d'amélioration face à la RTX 2080 ; elle est aussi 33 % plus rapide que la RTX 2080 Ti.

Sur Port Royal, le test de 3DMark dédié au Ray tracing, c'est le jackpot : la RTX 3080 surpasse la RTX 2080 de près de 94 %. NVIDIA n'avait pas menti. Elle est aussi 33 % plus rapide que la RTX 2080 Ti.

Nous mesurons la consommation totale du PC avec un wattmètre à la prise, au repos sur le bureau, puis en pleine charge dans un jeu exigeant et en stress test. Pour obtenir la consommation des cartes au repos, nous comparons la consommation du PC, avec et sans carte graphique insérée, sur le circuit graphique intégré. Enfin nous comparons nos résultats avec ceux remontés via la dernière version beta de MSI Afterburner et FrameView, l'outil de mesure de NVIDIA, pour vérifier que nous sommes bien dans les clous.

NVIDIA ayant fait le choix de profiter de la nouvelle finesse de gravure en 8 nm, pour blinder son GPU d'un maximum d'unités de calcul, la consommation électrique augmente par rapport à la génération Turing. Cela-dit, le rapport performances/Watts s'envole, pour atteindre un rendement exceptionnel.

Notre pic de consommation lors du stress test atteint les 327,5 W, tandis que la RTX 2080 plafonnait à 243 W et la RTX 2080 Ti à 300 W. Mais à titre de comparaison, voici les ratio de performances/watt de chaque carte sur notre test (le plus haut étant le meilleur) :

  • RTX 3080 : 27,52
  • RTX 2080 Ti : 21,69
  • RTX 2080 : 20

En 1440p notre consommation moyenne oscille entre 315 et 320W sur un jeu exigeant.

Et voici les métriques maximales mesurées lors d'un stress test (10 minutes en boucle avec le stress test TimeSpy Extrem de 3DMark) :

  • Consommation électrique max : 327,5 W
  • Température max : 80°C
  • Fréquence GPU max : 2025 Mhz
  • Fréquence MEM max : 9502 Mhz

Comme vous pouvez le constater sur ce graphique, le rapport performances/prix s'envole sur cette RTX 3080, une belle surprise de la part de NVIDIA qui ne nous avait pas habitué à ça. Nous nous sommes basé sur les prix de lancement des Founders Edition testées.

Performances dans les jeux

Nous vous laissons découvrir les résultats par jeu et résolution d'écran :

L'activation des calculs asynchrones est l'occasion de voir à quel point l'architecture Ampere améliore l’exécution simultanée d'instructions, permettant une amélioration de près de 15 % des performances. On a hâte de voir cette optimisation intégrée sur plus de jeux.

Notre benchmark se termine avec Minecraft RTX, extrêmement gourmand en ressources avec le ray tracing activé. Ici la RTX 3080 fait des merveilles et présente des performances qui atomisent celles de la RTX 2080 Ti, avec près du double des images/sec !

Les chiffres parlent d'eux-même, la GeForce RTX 3080 est un monstre de puissance et NVIDIA réalise bien le saut générationnel le plus important de son histoire. C'est simple, si on fait la moyenne des performances de tous nos jeux testés en 4K, cette carte est 73 % plus rapide que la RTX 2080 et 33 % plus véloce que la RTX 2080 Ti.

En 1440p, elle reste 58 % plus rapide que la RTX 2080 et 25 % plus rapide que la RTX 2080 Ti. Enfin en Full HD, la RTX 3080 est 38 % plus véloce que la RTX 2080 et 19% plus rapide que la RTX 2080 Ti.

Overclocking

Après avoir testé en détails notre modèle Founders Edition, il ne reste plus que l'épreuve de l'overclocking pour pousser cette GeForce RTX 3080 dans ses retranchements. Avec une finesse de gravure plus importante, et le système de refroidissement innovant mis en place par NVIDIA, il est intéressant de voir le potentiel d'overclocking de la carte.

Rappelons nous que plus le refroidissement est efficace, plus la fréquence "boost" peut être augmentée. Un bon overclocking est un compromis entre performances, température et nuisances sonores.

Sur la génération Turing, NVIDIA inaugurait une nouvelle technologie appelée OC Scanner, pour nous permettre d'effectuer un overclocking idéal et stable en un seul clic. Les cartes Founders Edition ainsi que les modèles partenaires embarquent un ensemble d'algorithmes dédiés à l'overclocking, permettant de tester le couple fréquence/tension sur différents scénarios de charge.

L'avantage de ce système, c'est de pouvoir effectuer une analyse d'environ 10-20 minutes sans reboot du PC. Le programme va mesurer les erreurs et mémoriser le dernier état stable avant le crash, permettant d'obtenir une courbe fréquence/tension idéale.

A l'heure actuelle seule la dernière version beta d'Afterburner, fournie par MSI, prend en charge l'OC scanner sur la RTX 3080.

L'OC Scanner calcule automatiquement le couple fréquence/tension
La fréquence boost passe en moyenne à +118 Mhz par rapport à la fréquence boost avant OC

Maintenant place aux résultats :

Si l'on traduit ça en terme de performances, sur le test TimeSpy Extreme de 3D Mark, en 4K, on mesure le Graphics score : la GeForce RTX 3080 Founders Edition performe de +3,4% par rapport aux fréquences stock et surpasse de fait le modèle custom de MSI.

A noter tout de même qu'à ces fréquences élevées, les ventilateurs restent assez silencieux.

Fortnite RTX

En marge de nos benchmark, NVIDIA a mis à notre disposition une map de Fortnite RTX optimisée pour les effets Ray tracing, et compatible DLSS. Nous vous proposons une vidéo de gameplay maison sur la RTX 3080, toutes les infos de performances étant affichées dans le coin supérieur gauche de l'écran.

L'avis de Clubic

Comment résumer cette GeForce RTX 3080 Founders Edition, et à quel type de joueur est-elle destinée ?

NVIDIA annonçait des performances doublées en 4K avec des effets avancés comme le ray tracing ou le DLSS, et la firme ne nous a pas trompé sur la marchandise. Si la génération Turing était à la fois performante et révolutionnaire, l'addition restait salée pour les joueurs exigeants. Sur Ampère, la GeForce RTX 3080 est moins chère que la RTX 2080 au lancement mais les performances crèvent le plafond, et de fait, le rapport performances/prix s'envole.

Et si NVIDIA avait décidé de ne pas augmenter ses prix à l'approche du lancement des consoles next-gen ? Sur PC la next-gen c'est tous les deux ans, et un potentiel acheteur intéressé par la Xbox Series X peut légitimement hésiter entre l'achat d'une RTX 3070 et d'une console, les jeux sortant tous sur PC.

Avec Ampere, l'architecture évolue avant tout dans une optique de performances, et quelques nouveautés logicielles comme Reflex et Broadcast viennent enrichir notre expérience en jeu et/ou en stream.

Mais cette débauche de puissance nécessite-t-elle pour autant un upgrade vers la nouvelle génération ? La GeForce RTX 3080 s'adresse avant tout aux joueurs équipés d'écrans 4K à rafraîchissement élevé, ou qui comptent s'en équiper dans les mois à venir. Si vous faites partie de ces chanceux, vous pourrez alors compter sur des jeux en 4K, à 100 images/sec en moyenne avec tous les réglages au maximum, le tout avec du ray tracing.

Cyberpunk, on t'attend !

Conclusion
Note générale
9 / 10

Avec la génération Ampere, NVIDIA propose une évolution de son architecture, axée sur les performances. La firme de Santa Clara l'avait annoncé, le bond de performance est le plus important jamais vu entre deux générations de cartes graphiques… Et c'est vrai. Si vous attendiez pour changer votre matériel haut de gamme, vous pouvez y aller les yeux fermés !

Les plus
  • Des performances monstrueuses (jusqu'à 2x les performances de la RTX 2080 pour un prix de lancement inférieur)
  • Un design Founders Edition très réussi
  • Un système de refroidissement efficace
  • Silencieuse
Les moins
  • On cherche encore, mais allez pour pinailler, le connecteur d'alimentation propriétaire nécessite un adaptateur disgracieux dans nos beaux boîtiers à vitre latérale
Par Colin Golberg
Rédacteur en chef adjoint

Chef de rubrique hardware et gaming. Avant j'étais dans le poulet. Et je vois rien qu'au niveau du poulet c'est un bordel ! Alors la tech...

Vous êtes un utilisateur de Google Actualités ou de WhatsApp ?
Suivez-nous pour ne rien rater de l'actu tech !
Nos experts recommandent des produits et services technologiques en toute indépendance. Si vous achetez via un lien d’affiliation, nous pouvons gagner une commission. Les prix mentionnés sont susceptibles d'évoluer. En savoir plus
Commentaires (0)
Rejoignez la communauté Clubic
Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.
Commentaires (10)
Steevenoo

Vu ailleurs les performances dans flight simulator en 4K sont très très moyenne (même pas 60FPS) en plus que la carte consomme beaucoup trop bref il faut attendre encore deux génération …

AlexScan

Il manque les perf de la 3080 dans le graph de The Division 2

AlexScan

Sinon bien joué Nvidia, j’attend la 3060Ti et la RX6000 pour me décider… entre une CG ou une PS5…

Funkee

Merci c’est réparé.

Thebadcrc

En fait, plus que les ecrans 4K, ce sont les joueurs en VR qui me semblent attires par cette carte. Les nouvelles generations de casque VR vont pousser 2 x 2K avec un besoin de fps tres eleves. FS2020 est suppose dans un avenir proche supporter la VR. La simu (avions, voiture, helicos) et le combat spatial (SW Squadrons) donnent tout son sens aux casques de VR et ces cartes vont peut etre permettre de democratiser un peu plus ce peripherique.

ar-s

Jolie bête, joli bon. Malgré tout, sa taille et sa conso me font tout de même dire que j’attendrai 2 ans encore. Ayant une 1080 depuis pas mal de temps, elle tient encore très bien la route. J’attends aussi de voir les RX6000 et la techno RDNA 2 d’AMD.
AMD a tellement bluffé tout le monde depuis les Zen 2 que rien n’est impossible. (en terme de Performance/Conso/Prix) Sachant qu’ils vont graver en 7nm, les perf devraient être au rendez vous.

Popoulo

Et il ne t’ai même pas venu à l’esprit que ce soft était pas encore opti pour cette génération de cartes (comme 99% des jeux/softs actuels) et que même dans 10 générations, si le nécessaire n’est pas fait, ça sera pareil ? non ?

@anon16165080 : Quel matériel utilisez-vous ? ça fait relativement peu 250w. C’est juste ce qu’il faut pour alimenter ma 1080ti actuelle.

Popoulo

C’est clair qu’il faut attendre pour voir ce qu’AMD va pondre - même si la barre est haute.

sshenron

Aujourd’hui il n’y a pas beaucoup de différences sur ce jeu entre une 2080 TI et une 3080. Mais il y a bien une différence de prix entre ces deux cartes graphiques. A sa sortie la 2080 TI coûtait le double d’une 3080 je crois.

Par ailleurs j’imagine que des mises à jour et des drivers amélioreront petit à petit les perfs.

Maintenant pour la consommation, j’espère que ca ne continuera pas à augmenter d’ci les prochaines générations …

Nmut

Dommage qu’il n’y ait pas quelques tests OpenCL ou même un peu débile comme du minage pour voir la puissance de calcul brute. La nouvelle archi devrait permettre de se rapprocher un peu de l’efficacité des AMD et pourrait m’intéresser (calculs de probas big data).