Test GeForce RTX 2070, 2080, 2080 Ti : que vaut le haut de gamme de Turing ?

Colin Golberg
Tech Chief Editor
19 août 2019 à 11h10
49
Mise à jour du 10/08/2019 : notre test des GeForce RTX 2060, 2070, 2080 SUPER est disponible ici.

Mise à jour du 07/11/2018 : ajout des tests des GeForce RTX 2070 de chez MSI (Armor et Gamin-Z).

Attention, les bloqueurs de publicité peuvent empêcher l'affichage des graphiques hébergés sur Infogram.

Mise à jour du 11/10/2018 : Nous avons mis à jour le test avec les performances des différentes cartes en overclocking, les benchmarks d'un modèle partenaire (la MSI 2080 Ti Duke 11G OC), ainsi que les performances en HDR. D'ici peu nous ferons une mise à jour avec les performances en ray tracing sur les premiers jeux compatibles.

Plus de deux ans. C'est le temps qu'il aura fallu patienter pour que NVIDIA se décide à annoncer ses nouvelles cartes graphiques grand public, les Geforce RTX. Mais en coulisses, cela fait près de 10 ans que la firme au caméléon travaille sur le Saint Graal de l'informatique graphique : le rendu en temps réel avec le ray tracing. Alors, ça donne quoi ?

Introduction

C'est en août, lors du SIGGRAPH, que NVIDIA a levé le voile, après des mois de rumeurs, sur sa nouvelle architecture « Turing ». D'abord présentée avec les Quadro RTX 8000, 6000 et 5000 réservées aux professionnels, c'est pendant la Gaming Celebration à la Gamescom que nous avons pu découvrir les Geforce RTX, déclinaisons Turing pour le grand public.

Si NVIDIA s'est décidé à renommer ses cartes GTX en RTX, c'est parce que la marque considère qu'il s'agit de la plus grande évolution technologique depuis l'avènement des cœurs CUDA en 2006. Nous allons voir ce qu'il en est tout au long ce test.

DSC00227.JPG
Le design des cartes Founder's Edition est particulièrement réussi.


Une nouvelle architecture taillée pour le Ray tracing et boostée à l'IA

NVIDIA a annoncé pour l'instant trois modèles, les plus hauts dans la gamme. Les TU102, TU104 et TU106. Leurs noms commerciaux :
  • GeForce RTX 2080 : TU104
  • GeForce RTX 2080 Ti : TU102
Ces deux modèles seront disponibles dès le 20 septembre, tandis qu'un troisième modèle arrivera en octobre :
  • GeForce RTX 2070 : TU106
Avant d'entrer dans le détail des tests, revenons sur la grogne des joueurs qui a suivi la présentation des GPU à la Gamescom. En effet, après une présentation principalement dédiée au ray tracing et à l'IA (nous y reviendrons), l'annonce des caractéristiques a quelque peu déçu par rapport au bond important qu'avait représenté le passage de Maxwell (9xx) à la génération Pascal (11xx). Depuis la rédaction de ce test, nous avons également testé la GeForce RTX 2060 FE.

On se rappelle qu'entre ces deux générations, le nombre de cœurs CUDA avait augmenté de 25-30%, selon les modèles, et les fréquences de fonctionnement des GPU s'étaient envolées avec plus de 40% d'amélioration.

Cette année, si l'on se base uniquement sur les cœurs CUDA et les fréquences des GPU, l'écart est beaucoup plus modéré :
  • RTX 2080 : +15% de cœurs CUDA / +4% fréquence GPU VS GTX 1080
  • RTX 2080 Ti : +21% de cœurs CUDA / +7% fréquence GPU VS GTX 1080 Ti


pascal turing specs

D'autant plus que l'augmentation des prix annoncée par rapport à la génération précédente (au lancement) est elle-même beaucoup moins modérée. Le passage de la finesse de gravure de 16 à 12 nm ne semble pas suffisant pour un bond important sur les fréquences des GPU.

Mais si on y regarde bien, la taille du die et le nombre de transistors se sont envolés par rapport à la génération précédente, avec une augmentation de près de 88% pour la RTX 2080, et de 55% pour la RTX 2080 Ti. Mais alors à quoi servent ces transistors supplémentaires ?

Et c'est bien là qu'il est important de comprendre que nous sommes en présence d'une toute nouvelle architecture, qui s'appuie notamment sur deux nouveautés essentielles dans le pipeline de rendu : les RT Cores pour le ray tracing, et les Tensor Cores pour l'IA et le deep learning.

NVIDIA semble avoir décidé qu'il était temps de faire bouger l'industrie !

TU104 full chip
La nouvelle puce Turing dans son intégralité (TU102)


Le SM selon Turing

Avant d'aborder en détails les RT Cores et Tensor Cores, il est nécessaire de prendre un peu de temps pour analyser les nouveautés concernant le nouveau streaming multiprocessor (SM). Annoncé, selon NVIDIA, plus performant à hauteur de 50% sur le traitement des shaders que sur la génération Pascal, le nouveau SM voit arriver deux changements majeurs dans son architecture.

concurent execution.jpg
L'exécution simultanée devrait apporter un important gain de performances


Premièrement, Turing emprunte à Volta son support de l'exécution simultanée des instructions FP32 et INT32. Sur les générations précédentes, ces types d'instructions ne pouvaient pas s'exécuter en même temps. Sur Turing on trouve des cœurs dédiés FP32 et des cœurs dédiés INT32 pour chaque bloc SM, alors que sur la génération Pascal on avait affaire à des cœurs CUDA non spécialisés.

Le fait d'avoir des cœurs dédiés à chaque type d'instruction et gérés de façon complètement indépendante permet donc d'effectuer les calculs simultanément.

A cela s'ajoute une gestion de la mémoire revue, afin d'unifier la mémoire partagée et le cache L1 en une seule et unique unité.

shared memory


Troisième changement majeur, le passage à la mémoire GDDR6 sur un bus 352-bit qui permet d'améliorer significativement la vitesse des échanges entre les cœurs et la mémoire. On parle d'une amélioration de plus de 27% de bande passante par rapport à la génération Pascal.

L'objectif de NVIDIA est d'offrir un maximum de souplesse aux développeurs, qui pourront exploiter Turing selon leurs besoins.

Du ray tracing en temps réel via un rendu hybride

L'une des grandes nouveautés mise en avant par NVIDIA sur Turing est bel et bien le ray tracing en temps réel. Si vous voulez en savoir plus sur le ray tracing, nous vous invitons à lire notre article précédent sur le sujet.

Sachez juste que le ray tracing permet de donner aux jeux un rendu photo-réaliste avec des ombres, lumières et reflets générés de manière naturelle et réaliste.

En résumé, cette méthode de rendu - extrêmement gourmande en puissance de calcul - sera accélérée sur Turing grâce aux RT Cores. Ceux-ci seront dédiés aux fonctions BVH (Bounding Volume Hierarchy) traversal et aux tests d'intersection entre les rayons (ray) et les triangles. Ces deux fonctions sont essentielles aux algorithmes de ray tracing.

BVH.jpg
L'algorithme BVH permet d'améliorer l'efficacité de la recherche d'intersection entre un rayon et un triangle.


Aujourd'hui, le seul moyen d'effectuer du ray tracing en temps réel est en effet de découper une scène géométrique en différentes « boites » afin de faciliter les calculs permettant de définir l'endroit où un rayon généré viendra frapper l'un des triangles de la forme géométrique (le lapin dans l'exemple ci-dessus). Sans ces « boites », l'algorithme serait forcé de chercher l'intersection dans toute la scène.

giaray.jpg
Turing est clairement plus performant en ray tracing, à relativiser bien sûr puisque que cette génération a été pensée pour.


D'après NVIDIA, une Geforce GTX 1080 Ti peut générer 1,1 milliard de rayons par seconde en utilisant ses cœurs CUDA - alors que la RTX 2080 Ti peut en générer environ 10 milliards avec ses RT Cores. Mais cela ne reste pas suffisant pour générer une scène 3D complète en temps réel. C'est pour cette raison que NVIDIA a créé un nouveau pipeline de rendu hybride, impliquant de la rasterization traditionnelle pour le rendu géométrique, et du ray tracing via les RT Cores pour gérer les lumières ou les ombres, par exemple.

Il faut reconnaître que cette technologie permet de créer des images impressionnantes de réalisme dans les démos qu'il nous a été donné de voir. En revanche, ce sont bel et bien les développeurs qui auront la lourde tâche de l'utiliser et d'en faire quelque chose d'incontournable... ou non.

A l'heure où nous écrivons ce test, plus de 10 jeux seront compatibles avec l'hybrid rendering, et donc le ray tracing.

pipeline.jpg
Le nouveau pipeline de rendu intègre de la rasterisation classique, du ray tracing et par exemple du DLSS sur les Tensor Cores


Deep Learning & Tensor Cores

Les Tensor Cores représentent l'autre grande nouveauté mise en avant par NVIDIA, et issue également de l'architecture Volta. Comme sur celle-ci, les Tensor Cores sont des unités spécialisées sur les opérations matricielles, qui sont les principales fonctions utilisées dans le Deep Learning. Ces Tensor Cores vont permettre d'accélérer drastiquement ce type d'opérations et d'apporter de nouvelles techniques - comme le DLSS, pour Deep Learning Super Sampling.

DLSS.jpg
Le gain de performance devrait être important, nous ne manquerons pas de le vérifier dans ce test.


L'exemple du DLSS est le premier à nous avoir été montré en démo temps réel. Il s'agit d'un « super » anti-aliasing qui se rapproche du résultat du TAA, très utilisé dans les jeux du moment. Le DLSS utilise beaucoup moins de ressources grâce à l'utilisation de moins de samples - les Tensor Cores se chargeant de créer les éléments intermédiaires grâce à l'IA - et aux modèles d'instructions fournis par NVIDIA via des mises à jour de pilotes.

Ces fameux modèles d'instructions sont calculés chez NVIDIA avec leur nouveau framework NGX, qui utilise les réseaux neuronaux pour améliorer les graphismes, rendus et autre application coté client. Pour faire simple, NVIDIA va utiliser ses supercalculateurs DGX SaturnV pour générer des images de la meilleure qualité possible, en super haute résolution. Puis entraîner un modèle d'IA pour qu'il génère des images intermédiaires dans une résolution plus basse mais aussi fidèle que possible.

On imagine qu'à terme d'autres améliorations pourront être mises en place, mais déjà plus de 25 jeux ont annoncé la prise en charge du DLSS. Le gros du travail étant effectué coté NVIDIA, on peut comprendre qu'il soit facile de convaincre les développeurs.

RTX-OPS : une nouvelle unité de mesure des performances

La nouvelle architecture Turing introduite par NVIDIA ne permet plus de mesurer les performances brutes des GPU en téraflops (TFLOPS). En effet, en plus des instructions INT32 et FP32, les RT Cores et les Tensor Cores doivent être pris en compte dans l'équation.

C'est pour cette raison que NVIDIA a jugé nécessaire de créer une nouvelle unité de mesure qui refléterait les capacités totales de la carte, aussi bien sur la rasterisation que sur le ray tracing et le deep learning.

Il faudra probablement attendre un certain temps avant que cette nouvelle unité de mesure - les RTX-OPS - ait du sens, puisque qu'au moment du lancement des RTX, aucun jeu ne prend encore en charge le ray tracing et le DLSS.

rtops.png
L'équation des RTX-OPS, miam


Mesh Shading, HDR natif et VirtualLink

Derniers points avant de rentrer dans le vif du sujet. NVIDIA a introduit deux nouveaux procédés de shading avec Turing : le Mesh Shading et le Variable Rate Shading.

Ces nouveaux procédés sont intéressants, puisqu'ils profitent d'ores et déjà aux jeux disponibles aujourd'hui.

Le Mesh Shading devrait améliorer le niveau de détails (LOD), cette technique qui permet d'affiner les détails des objets en fonction de la distance d'affichage en déchargeant le CPU de cette tâche.

mesh.png


De son coté, le Variable Rate Shading permet d'exécuter le rendu de certaines parties de l'image en moindre qualité, sans que cela soit perceptible dans le rendu final. On pourra par exemple privilégier la partie centrale de l'écran, où se déroule l'essentiel de l'action.

VRS.png

Sur la génération Pascal, les GPU avaient besoin d'appliquer un traitement logiciel qui rajoutait de la latence, avec un impact négatif sur les performances. Sur Turing, c'est terminé ! Tout le processus est réalisé au niveau du hardware grâce à un nouveau moteur vidéo.

Celui-ci est pleinement compatible avec le protocole DisplayPort 1.4a, dont on retrouve 3 connecteurs sur les cartes Founders Edition, ainsi qu'une sortie HDMI 2.0b et la nouvelle interface VirtualLink.

De quoi supporter jusqu'à quatre moniteurs en simultané, dans une résolution pouvant atteindre 8K grâce au Display Stream Compression (sur les ports DisplayPort uniquement).

C'est aussi le DSC qui permet d'utiliser des moniteurs en 4K 120 Hz, notre ROG Swift PG27U s'en lèche déjà les babines.

video.png
Turing apporte également un gain de performance en encodage/décodage vidéo. Les streameurs devraient apprécier.



Enfin, un petit mot sur le VirtualLink : cette nouvelle interface utilise un port USB Type-C reconfiguré pour profiter au maximum aux casques de réalité virtuelle. Nous en reparlerons lorsque les casques disposant de ce nouveau standard seront disponibles.

Les modèles Founders Edition de NVIDIA

Les deux modèles sur lesquels nous allons nous attarder aujourd'hui sont les Founders Edition de NVIDIA. La RTX 2080 est déjà disponible dans toutes les bonnes crèmeries, au tarif de 849 €, tandis que la RTX 2080 Ti sera disponible dès le 27 septembre au prix de 1259 €.

Anciennement appelées « design de référence », le caméléon les a renommées en Founders Edition lors de la sortie des cartes graphiques grand public de la génération Pascal.

rtx FE
Les Founders Edition sont livrées dans un fort bel écrin


NVIDIA a décidé d'abandonner leur blower propriétaire (pour notre plus grand plaisir), pour se concentrer sur un système à double ventilateurs beaucoup moins bruyant ! Le blower avait pour particularité d'extraire tout l'air chaud à l'extérieur du boitier ; cette technique issue des datacenters n'avait plus vraiment de sens que dans les petits boitiers avec peu de volume pour le refroidissement.

Les partenaires de NVIDIA doivent s'en mordre les doigts : sur la génération Pascal leurs systèmes de refroidissement alternatifs leur permettaient de se différencier des Founders Edition. Pour se consoler, ils pourront cette fois-ci proposer des design blower !

Un petit mot sur les nuisances sonores avec la 2080 et la 2080 Ti. Lors de nos tests en conditions réelles boitier fermé (pas particulièrement optimisé pour pour le silence), les cartes sont très silencieuses, même en pleine charge dans les jeux exigeants. Aucune comparaison possible avec les blower de la génération précédente.

bruit.jpg
NVIDIA annonce une 2080 RTX 5X plus discrète que la 1080 GTX


DSC00189.JPG
Le backplate métallique est de retour




Protocole de test, consommation électrique et benchmarks généralistes

Avant de vous détailler la configuration de test utilisée, ainsi que le panel de cartes graphiques testées, nous tenons à préciser deux points :
  • Premièrement, nous n'avons pas pu intégrer les Radeon Vega 56 et 64 dans les benchmarks, car nous n'avons pas réussi à obtenir les cartes à temps. Nous comparerons donc Turing à Pascal. Lors de sa prise d'indépendance, Clubic est reparti à zéro au niveau du matériel. MAJ du 07/11/2018 : ajout de la Radeon RX Vega 64 Nitro+ de Sapphire dans les benchmarks.
  • MAJ du 11/10/2018 : nous avons reçu le moniteur ASUS ROG Swift PG27U, la rolls des moniteurs gaming PC (4K HDR 144 hz Gsync) et nous avons donc pu tester les performances en HDR dans la section dédiée.

Sans plus attendre, voici la configuration de test utilisée pour tous les benchmarks. Celle-ci nous a été fournie par notre partenaire TopAchat que nous remercions , et qui propose des configurations montées de grande qualité.
  • Processeur Intel Core i7-8700K (3.7 GHz)
  • Carte Mère MSI Z370 GAMING PRO CARBON (Chipset Intel Z370)
  • DDR4 Corsair Vengeance LPX, 2 x 8 Go, 3000 MHz, CAS 15, PC-24000
  • SSD Samsung Série 960 EVO, 250 Go, M.2 (Type 2280)
  • Disque Dur Seagate BarraCuda, 2 To
  • Alimentation Be Quiet ! Straight Power 11, 850W Plus Gold

Tous les tests sont effectués sous Windows 10 Pro (1803) avec les dernières mises à jour disponibles via Windows Update. La version des pilotes NVIDIA fournie est la 416.33.

Voici la liste des cartes que nous avons testées :
  • GeForce GTX 1070 FE
  • GeForce GTX 1080 FE
  • GeForce GTX 1080 Ti FE
  • GeForce RTX 2070 Armor (MSI)
  • GeForce RTX 2070 Gaming Z (MSI)
  • GeForce RTX 2080 FE
  • GeForce RTX 2080 Ti FE
  • GeForce RTX 2080 Ti Duke (MSI)
  • Radeon RX Vega 64 Nitro+ (Sapphire)

Pour notre premier test, la RTX 2080 Ti dépasse de près de 46% la GTX 1080 Ti, et la RTX 2080 supplante la GTX 1080 de près de 43% ! Du coté des RTX 2070, on est 53% plus performant que la GTX 1070, et 18% plus rapide que la GTX 1080.

La 2080 Ti se place bien évidemment devant la 2080 avec une amélioration de près de 32% sur ce test.


Sur Unigine 2 en 4K, la RTX 2080 Ti surpasse la GTX 1080 Ti de près de 52%, alors que le RTX 2080 est 27% plus rapide que la GTX 1080.

Ces écarts sont presque similaires en 1440p, mais se réduisent lorsque l'on passe en 1080p.


Notre premier test du nouvel antialiasing (anticrénelage) est très impressionnant. Certes, il s'agit de démos et non de jeux en conditions réelles ; mais le gain observé est vraiment important et augure le meilleur pour cette technologie. D'autant plus que la qualité d'image finale est vraiment propre, et la différence avec du TAA classique est imperceptible.


Nous mesurons la consommation totale du PC avec un wattmètre à la prise, au repos sur le bureau, puis en pleine charge dans un jeu exigeant.

Pour obtenir la consommation des cartes au repos, nous comparons la consommation du PC avec et sans carte graphique insérée, sur le circuit graphique intégré.

Malgré la finesse de gravure un peu plus importante (12 nm VS 16 nm), l'augmentation de l'enveloppe thermique se traduit forcément par une consommation énergétique plus vorace.

La RTX 2080 est environ 40% plus gourmande que la GTX 1080 en charge, tandis que la RTX 2080 Ti est 25% plus énergivore que la GTX 1080 Ti. A noter que la consommation au repos des RTX est plus importante que la moyenne.

NVIDIA a d'ors et déjà annoncé travailler sur une mise à jour des pilotes pour régler le problème.

Performances dans les jeux

Sur l'ensemble des jeux que nous avons testé, c'est en 4K que les nouvelles RTX se démarquent le plus. La GeForce RTX 2080 est en moyenne près de 41% plus performante que la Geforce GTX 1080, et 10% plus rapide que la 1080 Ti.

Tandis que la GeForce RTX 2080 Ti est elle 36% plus véloce que la GeForce GTX 1080 Ti, et 20% plus performante que sa petite soeur, la RTX 2080.

Lorsque la résolution baisse, l'écart se lisse de plus en plus, et en 1080p (FHD), c'est le CPU qui devient un facteur limitant. Quoi qu'il en soit, lorsqu'on s'offre une RTX 2080 ou 2080 Ti, le 1080p n'est pas l'objectif en vue !

Notez bien que l'intégralité de ces tests sont basés sur des jeux actuels, utilisant un rendu à base de rastérisation classique. Nous ne pouvons pas encore tester le rendu hybride avec le ray tracing, il faudra pour cela attendre au minimum la mise à jour d'octobre de Windows 10. Celle-ci devrait embarquer la première version publique de DXR au sein de DirectX 12.

Les développeurs devraient rendre disponible en même temps, les mises à jour spécifiques des jeux compatibles. Nous mettrons bien évidement ce test à jour à ce moment là.

Nous vous laissons découvrir les résultats par jeu et par résolution d'écran :











Overclocking

Après avoir testé en détails nos différents modèles de test, il ne reste plus que l'épreuve de l'overclocking pour pousser ces GeForce RTX dans leurs derniers retranchements. Sur la génération Turing, Nvidia a fait des efforts sur le refroidissement de ses cartes Founders Edition, afin de pouvoir améliorer les fréquences de fonctionnement des GPU.

Rappelons nous que plus le refroidissement est efficace, plus la fréquence "boost" peut être augmentée. Un bon overclocking est un compromis entre performances, température et nuisances sonores.

Et ça tombe bien parce qu'avec Turing, Nvidia inaugure une nouvelle technologie appelée OC Scanner, sensée nous permettre d'effectuer un overclocking idéal et stable en un seul clic. Les cartes Founders Edition ainsi que les modèles partenaires embarquent un ensemble d'algorithmes dédiés à l'overclocking, permettant de tester le ratio fréquence/tension sur différents scénarios de charge.

L'avantage de ce système, c'est de pouvoir effectuer une analyse d'environ 10-20 minutes sans crash du PC. Le programme va mesurer les erreurs et mémoriser le dernier état stable avant le crash, permettant d'obtenir une courbe fréquence/tension idéale.

A l'heure actuelle seules les versions beta de EVGA Precision X1 et MSI Afterburner prennent en charge l'OC scanner.

precision x1
EVGA Precision X1

msi afterburner
MSI Afterburner


Sur les trois cartes que nous avons overclockées, les résultats obtenus via l'OC Scanner sont très proches de ceux obtenus via un overclocking manuel. A 5-10 Mhz près, nous n'avons pas fait mieux "à l'ancienne". En revanche l'overclocking automatique n'a aucun impact sur les fréquences mémoire, alors que nous avons pu sans problème faire un +1000 Mhz sur les trois cartes.

Maintenant place aux résultats :




Nous avons réussi à pousser notre RTX 2080 à 2010 Mhz, notre RTX 2080 Ti Duke de MSI à 2040 Mhz, et enfin la RTX 2080 Ti Founders Edition a atteint les 2070 Mhz !

Si l'on traduit ça en terme de performances, sur le test TimeSpy Extreme de 3D Mark, en 4K, on mesure le Graphics score :
  • GeForce RTX 2080 Founders Edition : +10%
  • MSI GeForce RTX 2080 Ti Duke 11G OC : +9%
  • GeForce RTX 2080 Ti Founders Edition : + 14%
On obtient des gains de performances très honorables, surtout avec le refroidissement à air classique.

A noter tout de même qu'à ces fréquences élevées, les ventilateurs tournent très vite et deviennent bruyants. Seule la carte de MSI reste relativement silencieuse, au détriment de l'overclocking le moins efficace.

Du coté des RTX 2070, nous avons pu pousser la Armor à 1980 Mhz, et le modèle Gaming Z à 2010 Mhz. En terme de performances, toujours sur TimeSpy Extreme en 4K, on obtient :
  • RTX 2070 Armor : +12%
  • RTX 2070 Gaming Z : +6%


Test MSI GeForce 2080 Ti Duke 11G OC

La première candidate des modèles partenaires que nous allons tester est la monstrueuse RTX 2080 Ti Duke 11G OC de MSI. Celle-ci fait la bagatelle de 31,2 cm de longueur, 12 cm de hauteur, et un poil plus de 5 cm d'épaisseur pour un poid de près de 2 kg !

duke
La Duke est sacrément imposante !


Son imposant système de refroidissement surmonté de trois ventilateurs Torx Fan 2.0 de 90 mm, promet un refroidissement des plus efficace, tout en limitant les nuisances sonores. Au niveau des sorties, on y trouve trois DisplayPort 1.4a, un connecteur VirtualLink (USB C) pour la VR, et une sortie HDMI 2.0b. Finalement exactement la même chose que sur le modèle de référence de NVIDIA.

Au niveau de l'alimentation, on reste sur deux connecteurs 8-pin. La carte est bien évidemment compatible avec le système Mystic Light de MSI, afin de contrôler les LED RGB qui décorent la tranche visible, venant illuminer de tous feux le logo Duke.

Coté fréquences de fonctionnement, la fréquence de base reste à 1350 Mhz comme sur le modèle de référence, mais le mode boost passe à 1665 Mz (VS 1635 Mhz), une petite augmentation de 2%. Au niveau de la mémoire, on reste sur une fréquence de 1750 Mhz.

duke rgb
Les LEDS de la Duke se synchronisent avec notre carte mère MSI Z370 Gaming Pro Carbon. De toute beauté.


La carte de MSI est également capable de fonctionner en mode totalement silencieux, en coupant ses ventilateurs lorsque la charge est légère.

Pour connaitre les performances dans les différents tests que nous avons menés, en jeu ou lors de benchmarks spécialisés, nous vous invitons à lire les sections dédiées dans le sommaire du test. N'hésitez pas aussi à consulter la section Overclocking dans laquelle nous avons mis à l'épreuve cette 2080 Ti Duke de MSI.


duke
La carte est assez épaisse, elle occupera 3 slots PCIE


La RTX 2080 Ti Duke 11G OC de MSI est un monstre de puissance, à même de tenir tête aux jeux les plus gourmands en 4K HDR à 60 images/sec, voire au delà. Bien sûr ce niveau de performances -inégalé sur le marché- a un prix très élevé. Il vous en coûtera 1319 €, soit 60 € de plus que le modèle Founders Edition de Nvidia.

Finalement la 2080 Ti Duke perd quelques points à cause de ses performances en overclocking, décevantes face à la Founders Edition. C'est d'autant plus dommage que cet énorme système de refroidissement laissait augurer du meilleur. Peut être que nous n'avons pas eu de chance avec la puce T102 de notre sample, étant donné que d'autre testeurs ont pu pousser leurs fréquences au delà des nôtres.

Si on laisse de coté l'overclocking, la carte de MSI est en tête de notre classement, environ 3,5% plus rapide que la Founders Edition, à vous de voir si la différence de prix est justifiée. Notons tout de même que le système de refroidissement est le plus silencieux de tous les modèles que nous avons testé, un très bon point pour MSI.


duke

Conclusion RTX 2070

Après avoir testé sous toutes les coutures les GeForce RTX 2080 & 2080 Ti, intéressons-nous aujourd'hui à leur petite sœur plus abordable, la GeForce RTX 2070 de NVIDIA. Annoncée également pendant la Gaming Celebration à la Gamescom, elle est disponible dans toutes les bonnes crèmeries depuis le 17 octobre, à partir de 519 € pour les modèles partenaires et 629 € en Founders Edition (overclockée d'usine avec le design de référence NVIDIA).

2070 gamingz
La RTX 2070 Gaming Z de MSI, disponible à 679 €

La GeForce RTX 2070 est basée sur un GPU de la génération Turing, la TU106 avec 2304 cœurs CUDA, 288 Tensor Cores et 36 RT Cores, le tout supporté par 8 Go de mémoire GDDR6. Il s'agit de « l'entrée » du haut de gamme des RTX.

Cette fois-ci, nous avons testé deux modèles partenaires, la MSI GeForce RTX 2070 Armor 8G et la MSI GeForce RTX 2070 Gaminz Z 8G. Celles-ci sont affichées respectivement à 519 € et 679 €.

519 €, c'est le prix « plancher » annoncé par NVIDIA lors de sa présentation à la Gamescom. Il s'agit du billet d'entrée vers les technologies de ray tracing et de deep learning (DLSS). Attention, dans les faits, les stocks étant faibles au lancement, les marchands ne jouent pas le jeu et pratiquent des tarifs plus importants. A l'heure où nous écrivons ces lignes, il est impossible de trouver en stock le modèle Armor à 519 €. Au mieux ce même modèle est dispo sous 15 jours à... 590 €. En revanche le modèle Gaming Z, plus performant, est lui bien disponible immédiatement au prix annoncé de 679 € chez plusieurs gros e-commerçants.

D'après nos recherches, le modèle le plus accessible et disponible immédiatement, sous la barre des 523 €, est un modèle d'ASUS, la GeForce RTX 2070 - TURBO. Celle-ci profite d'un refroidissement de type « blower », moins efficace et plus bruyant que les doubles ventilateurs. Ce type de refroidissement a néanmoins l'avantage d'expulser l'intégralité de l'air chaud à l'extérieur du boitier, ce qui est intéressant dans le cas de configurations compactes.

2070 rbg gamingz
Les amateurs de RBG seront servis sur la Gaming Z

Mais à qui se destine cette nouvelle carte ?

La GeForce RTX 2070 est idéale pour les gamers qui souhaiteront profiter de tous les jeux récents à plus de 60 images/sec en 1440p (WQHD) avec tous les réglages au maximum. Les joueurs qui possèdent des écrans à plus de 120Hz pourront également jouer à des taux de rafraîchissement supérieurs à 100 images/sec en 1080p (FULL HD), très utile pour les jeux compétitifs notamment. La RTX 2070 vient jouer sur le terrain des GTX 1080 et des Radeon Vega 64 que nous avons ajoutées récemment à nos benchmarks.

Dans les faits, la RTX 2070 est plus efficace que la GTX 1080 dans l'intégralité de nos tests, avec plus de 10% d'amélioration. Dans certains jeux (BF1, FarCry 5), la Radeon Vega 64 se rapproche des résultats de la RTX 2070 en 1440p - au prix d'une consommation électrique importante - mais à un tarif moyen constaté en dessous des RTX 2070.

A la vue des tarifs actuellement affichés, on aurait pu se poser la question de l'intérêt d'acheter une RTX 2070 face à une GTX 1080 beaucoup moins chère. Sauf que les stocks de GTX 1080 sont quasiment épuisés, et que sur ce créneau de performances il vous faudra faire le choix entre l'équipe rouge et l'équipe verte.

armor
Le modèle Armor de MSI est officiellement à 519 €, dans les faits impossible de le trouver à moins de 590 €, sous 15 jours minimum. Dommage car cette carte est très efficace.

Bien entendu, avec la GeForce RTX 2070, NVIDIA nous fait la promesse du ray tracing et des technologies liées au deep learning comme le DLSS. Très prometteuses sur le papier et sur les démos techniques, on attend toujours de pouvoir tester ça en jeu. Il n'appartient qu'à NVIDIA et aux développeurs de jeux de transformer l'essai, et de rendre indispensables ces nouvelles technologies.

NVIDIA signe donc une GeForce RTX 2070 très efficace, mais au positionnement tarifaire encore incertain si proche du lancement. Gageons que l'amélioration des stocks jouera en faveur des intéressés, et que les premiers patch RTX pour les jeux dévoileront tout le potentiel de cette carte graphique.

2070

Conclusion RTX 2080

Lancée il y a plus de deux ans, il était grand temps de trouver un digne successeur pour la vénérable GeForce GTX 1080. Il faut dire que dans l'industrie des cartes graphiques, c'est la première fois que l'attente est aussi longue.

La GeForce RTX 2080 vient donc reprendre le flambeau, équipée d'améliorations significatives en termes de performances pour les jeux actuels, elle embarque aussi une toute nouvelle architecture taillée pour le futur du gaming selon NVIDIA.

Mais à qui se destine cette nouvelle carte ?

La GeForce RTX 2080 est idéale pour les gamers qui souhaiteront profiter de tous les jeux récents à plus de 80 images/sec en 1440p (WQHD) avec tous les réglages au maximum.

Nous ne pouvons que conseiller les joueurs qui recherchent ce type de performances d'investir dans une RTX 2080, plutôt qu'une GTX 1080 Ti, pour une différence de prix minime.

D'autant plus que les promesses du rendu hybride et des technologies liées au deep learning sont très intéressantes sur le papier.

On regrettera juste que NVIDIA ait décidé de précipiter le lancement de ses nouvelles GeForce, sans nous laisser la possibilité de tester les performances du rendu hybride sur des jeux réels. Comptez sur nous pour le faire dès que possible !

2080




Conclusion RTX 2080 Ti

Du coté de la RTX 2080 Ti, l'attente fut moins longue que pour sa petite soeur, puisque la GeForce GTX 1080 Ti est sortie il y a un peu plus d'un an.

Cette fois-ci pour sa génération Turing, NVIDIA a décidé de commercialiser sa déclinaison Ti dès le lancement.

La GeForce RTX 2080 Ti vient donc reprendre le flambeau, équipée d'améliorations significatives en termes de performances pour les jeux actuels, elle embarque aussi une toute nouvelle architecture taillée pour le futur du gaming selon NVIDIA.

Mais à qui se destine cette nouvelle carte ?

La GeForce RTX 2080 Ti est idéale pour les gamers qui souhaiteront profiter de tous les jeux récents à plus de 60 images/sec en 2160p (4K UHD) avec tous les réglages au maximum.

Dans nos tests, seul le dernier Tomb Raider est juste en dessous, mais nous ne doutons pas que les mises à jour successives de pilotes viendront améliorer les choses.

Certes, le prix demandé est important (1259 €), mais à ce jour seule la RTX 2080 Ti permet l'exploit du gaming 4K sans concession à plus de 60 images/sec.

D'autant plus que les promesses du rendu hybride et des technologies liées au deep learning sont très intéressantes sur le papier.

On regrettera juste que NVIDIA ait décidé de précipiter le lancement de ses nouvelles GeForce, sans nous laisser la possibilité de tester les performances du rendu hybride sur des jeux réels. Comptez sur nous pour le faire dès que possible !

GeForce RTX 2080 Ti

9

Les plus

  • Performances dans les jeux actuels en 2160p (4K UHD)
  • Très peu bruyante
  • Design et qualité de fabrication
  • Overclocking
  • Le DLSS et la promesse du rendu hybride...

Les moins

  • ... même si au lancement nous ne pouvons pas tester en jeu les perfs du ray tracing



Colin Golberg

Tech Chief Editor

Tech Chief Editor

Chef de rubrique hardware et gaming. Avant j'étais dans le poulet. Et je vois rien qu'au niveau du poulet c'est un bordel ! Alors la tech...

Lire d'autres articles

Chef de rubrique hardware et gaming. Avant j'étais dans le poulet. Et je vois rien qu'au niveau du poulet c'est un bordel ! Alors la tech...

Lire d'autres articles
Cet article contient des liens d'affiliation, ce qui signifie qu'une commission peut être reversée à Clubic. Les prix mentionnés ainsi que les marchands mis en avant sont susceptibles d'évoluer afin de toujours vous proposer le meilleur prix sur le produit concerné. 
Lire la charte de confiance
Vous êtes un utilisateur de Google Actualités ou de WhatsApp ? Suivez-nous pour ne rien rater de l'actu tech !
google-news
Rejoignez la communauté Clubic S'inscrire

Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.

S'inscrire

Commentaires (49)

kakek
Contrairement a ce que dit l’article, je pense qu’il y a de bonne chanque qu’une 1080 TI soit un achat plus intéressant qu’une 2080. Parceque cette derniere est quand même un cran plus chere.<br /> Dans le vrai monde (pas les prix théorique annoncé par Nvidia) la 2080 coute quand même 850 a 950 euros, alors que les 1080 TI commencent a se négocier a moins de 700. Ca fait quand même 150 euros de moins, pour les même performances !<br /> Quand au raytracing, même si ca s’averait être l’avenir du gaming ca ne le sera pas avant une ou deux génération de plus. D’ici là, seul quelques titres isolé l’utiliseront pour un ou deux effets sympa mais dispensables.<br /> Pour moi, les raytracing c’est un peut comme les pixels shaders. Ca a finit par devenir un standard, mais les premières cartes qui l’ont supporté (les gforce 3) étaient de toute facon dépassées avant que les jeux ne se mettent a l’utiliser réellement. Du coup les gforce 3 n’ont jamais trop fait de pixels shaders.
Judah
Votre tableau page 2 est déjà faux… la 1080 Ti à 3584 cuda cores, pas 2584 !.. Allez je continue quand même à lire…
fox-idcom
tout à fait , je pense qu’ils ont du fourcher en écrivant le chiffre et en effet , la 1080 Ti a bien 3584 Cuda Cores
flux
Pourquoi dans les points négatifs on ne retrouve pas le PRIX !!! Qui me semble tellement abusé… elle est ou l’époque ou le HDG était à 500€ ?<br /> Croyez-moi elle est pas si loin que ça :(, la prochaine Gen sera proche des 2000…
cioaz
Toi tu n’as pas l’air de comprendre un truc. Tu nou dit que la 2080 est quasi identique en perf que la 1080Ti. Sauf que dans 6 mois à 1 an grâce à l’optimisation des pilotes, les perfs vont encore être tirées vers le haut.<br /> Rien n’est optimisé quand une nouvelle architecture sort. Ce sont les performances brutes mais sans aucune optimisation. Quand les mecs de NVidia auront appris à maitriser la bête, à peaufiner le truc, les pilotes vont permettre à la carte de libérer tout le potentiel.<br /> Ensuite c’est UNIQUEMENT ton salaire qui fait la différence.<br /> tu es friqué? Fonce et achète une 2080 et même une 2080 Ti.<br /> tu n’es PAS friqué? Si tu peux attendre, attend et tu prendra une 2080 dans 1 an, le prix aura fortement baissé, du moins faut-il l’espérer. Sinon oui il faut prendre une 1080 ou 1080Ti. Et là aussi, il vaut mieux attendre après Noël, la 2080 va s’installer comme nouvelle référence, les anciennes générations vont décoter.<br /> Si on peut attendre bien sûr, reporter de quelques mois. Parfois on ne peut pas, panne de la carte graphique, il faut en acheter une autre.<br /> Mais attention, ne vous méprenez pas, quand je dis qu’il est bon d’attendre, ce n’est pas comme souvent on voit les crétins de services, moi j’attends la prochaine génération, puis quand elle sort, finalement pourquoi acheter, la prochaine génération est prévue et ce genre de débile n’achète jamais et ne profite de rien.<br /> Donc là de toute évidence il est urgent d’attendre 1 mois ou 2, voir comment les tarifs vont évoluer. Ce serait con d’acheter une 1080ti et si ça se trouve dans 2 mois son prix se sera effondré. Les tarifs des 2080 ne vont pas chuter mais les anciennes peut-être que oui. Si j’avais une carte graphique à changer, nous sommes le 21/09, j’attendrais Noël pour voir comment cela évolue niveau tarifs et j’achète. Le type qui a du pognon il s’en moque d’attendre et se fait plaisir dès aujourd’hui.
Funkee
Le prix n’est pas un critère pour juger de la qualité ou des performances d’un produit en soi. Et puis le haut de gamme d’aujourd’hui n’est pas le même que celui d’il y a quelques années. Ma 1070 fait encore très bien le taff sur du 1440p, mais pas en mettant tout à fond selon les jeux.
fabienbkk
Le Ray Tracing sur ces cartes n’est qu’un gadget vendu au prix fort qui sera à peine exploité surtout en 4K et même en 1440p où j’ai de gros doute sur la réelle jouabilité à ces résolutions avec du Ray Tracing partout. Perso, j’ai préféré changer ma GTX980 pour une 1080Ti OC iChill d’occaz, et devinez le prix, 380 Euros avec encore 2 ans de garantie, désolé mais la 2080 ne vaut clairement pas son prix pour des perfs similaires.
sebpirate62
je viens de me racheter une gtx 1070ti msi gaming et tous mes jeux passe en ultra 60fps synchro activé en 2560x1440.<br /> Alors je vois pas l’intérêt pour moi de partir sur les rtx qui coute un bras, car avec ma carte et mon Rysen 2700x, je suis tranquille encore un bon moment.<br /> C’est le genre de produits destines aux amateurs fortuné.<br /> Mais c’est pas un choix pour les performances, car, pour moi, la 1070ti et une grosse bombe alors que dire de la 1080ti…
kakek
Je le comprend trés bien. Je parle juste de rapport qualité/prix. Si tu as le pognon, EVIDEMENT tu ne te poses pas la question, tu prend la 2080TI.<br /> Je me place du point de vu du mec qui a un minimum de pognon (Sinon on n’achète tout simplement pas, on est pas des imbéciles on ne vas pas non plus préferer sa CG a payer son loyer) mais pas illimité, et qui quand il investit, veut quand même que ce soit pour quelque chose de concret.<br /> De ce point de vue, les futures améliorations des perfs des 2080 grâce au drivers, c’est théorique. L’historique des générations précédente montre que ça n’arrive pas toujours, même quand il y a changement d’architecture. Regarde, ben la génération précédente tout simplement. Les maxwell haut de game (980ti) se placent toujours pareil par rapport aux pascal équivalent (1060/1070). Jeu par jeu, il y a parfois une trés petite différence, mais les perfs de la nouvelle architecture ne se sont jamais envoler par rapport a la précédente.<br /> Donc sur un 2080, par rapport a une 1080ti, tu payes 150 euros de plus pour le raytracing, et peut être potentiellement dans un an environs, moins de 5% de perfs en plus. Mais ce n’est pas sur.<br /> C’est là que je pense que ces 150 euros supplémentaires, si tu n’es pas complètement ne mode ballec je compte même pas, tu préfère les garder pour autre chose.<br /> Ou alors attendre effectivement, et espérer qu’a un moment un choix devienne vraiment évident, sans avoir a se baser sur des prédiction incertaines.<br /> Parceque l’utilisation du raytracing, le fait que la 2080 prenne le pas grace au drivers, ou une future baisse des prix, tout ca c’est des prédictions. On essaye tous de deviner le plus probable, mais on a pas les moyens de savoir ce qui vas se passer en vrai.<br /> Par contre, de temps en temps, on se retrouve dans une situation ou un produit est clairement un super achat, là de suite, et on a pas de doute. Genre ( a l’époque) les TI4200, qui avaient un rapport qualité prix imbattable. Ou les les serie K des CPU intel vers 2012.<br /> quand tu attends, je crois que tu n’atttends pas forcément toujours la gen suivante. Tu attends surtout ce moment ou un produit est vraiment un bon super rapport qualité prix, et ou tu peut acheté sans avoir a essayer de deviner des trucs incertains.<br /> Si le prix des 1080ti s’écroulait vraiment par exemple, ça pourrait être le cas dans quelques mois.<br /> Mais la de suite, on est pas dans cette situation, et rien ne dit qu’elle arrivera.
masaku
En effet ce constat tout à fait juste
masaku
Sans vouloir le défendre toi tu lis de travers…<br /> Il a dit :“Quand au raytracing, même si ca s’averait être l’avenir du gaming ca ne le sera pas avant une ou deux génération de plus”<br /> 1 génération de plus c’est plus ou moins dans 2 ans… Et oué le Raytracing avec qu’il soit réellement exploité par la majorité des jeux ne se fera pas avant 2 ans mini, vu le temps moyen d’un développement de jvd qui parfois s’éternise à plusieurs années on peut imaginer que les dev commencent à peine à réfléchir à utiliser le Raytracing pour le prochain projets.<br /> Donc le seul intérêt réel et pratique des 2080 c’est de faire baisser le prix des 1080 Ti qui est largement suffisante pour 99,9% des gamers
Judah
Les 2080 sont assez décevante, seul le dlss pour ceux qui joueront en 4k me parait pas mal… Une 1080 Ti avec 3 gb de mémoire et 600 cuda cores en plus pour moins chère me parait un brin meilleur, tout dépendra de ce à quoi est destiné la carte, il n’y a pas que le jeu dans la vie, on peut faire autre chose à côté avec un pc. ^^
hardstyle
Et que dire de ma 1060 6 go KFA acheté 210€ il y a 1 an et demi alors qu aujourd hui les prix ont bien augmentés ?!! Non franchement il faut reflechir à deux fois avant d acheter car d’une generation à l autre les perf augmentent peu maintenant et les prix sont instables !
Khamu31
Merci pour l’article, les nouveaux graphiques sont sympa
ASHTARD
Je profite de faire un constat: que l’architecture Turing se concentre beaucoup sur le rendu RayTracing, qui est à mes yeux (et de certains aussi) un gadget. Car oui, il faut se demander si la RTX 2080 Ti sera capable de faire tourner un jeux en 4K avec ce rendu, ou du moins en Full-HD. Nvidia nous avait fait son show pendant sa conférence en montrant les 2 séquences (Star Wars et l’astronaute qui danse), mais aucune infos sur les configs employées. Ben pour celui de Star Wars, c’était 5x GeForce TITAN V qu’il a fallut pour faire tourner cela, et 5x GV100 = 650 TFLOPs FP16 (Tensors Cores), alors la 2080 Ti avec ses pauvres 110 TFLOPs, laissez moi rire (ou 220 au mieux, vu qu’on peut mettre une carte en plus)…Rien que par cette base: Turing est morte-née en ce qui concerne le RayTracing.<br /> Autre détail, et qu’AUCUN site de test n’a mentionner: Ce sont les Tensors Cores, et l’utilisation qu’on peut en faire. Non, je ne les vois pas être gâcher pour du RayTracing seulement, mais pour le Deep Learning. Alors qu’on se concentre sur le graphisme, il reste un aspect du gaming qui reste en suspend: l’IA des bots. Selon moi l’avenir du gaming serai de plutôt mettre en place des bots qui s’adaptent aux joueurs grâce à l’apprentissage, rendre nos FPS et STR beaucoup plus difficiles. Voila un domaine où Turing peut faire la différence.
tx41
Dans le monde des CG depuis deux décades, la décote est un mythe dans le HDG. Quand un constructeur sort un nouveau modèle, l’ancien disparait, point. Seule solution l’occase qui est la plus juteuse des solutions.
wannted
excellent test, j’ai appris pas mal de chose. Clubic est bien de retour!
bafue
Vu les stocks conséquent de GTX 1050 1060 1080 et 1080 Ti elle baisseront c’est sur …<br /> C’est bien pour ca que pour l’instant Nvidia maintient la gamme GTX beaucoup trop de stocks…<br /> C’est la seule et unique raison…
newseven
Mes prix pour pratiquement les mêmes performances pour ( l’instant ).<br /> Une chose qui est très importante c’est que la taille de la puce fait 542mm pour la (rtx) en 12 mn et que la gtx 1080 ti fait 471mm pour une gravure en 16nm?<br /> Beaucoup plus de transistor.<br /> Gddr6 qui est plus rapide et encore mal exploité.<br /> Elle consomme moins donc elle chauffe moins pour un meilleur rendement dans l’overclocking…<br /> Les drivers sont dans les bal du ciment.<br /> Le choix est facile...<br /> Mais pour ceux qui peuvent attendre encore 6 mois pour se procurer les versions en 7mn ( tsmc ) et qui vont coûter moi cher !.
tx41
Quel stock ? Sur le HDG, depuis ma Geforce 1, la sortie du nouveau HDG, signifiait la mort de l’ancien (à la sortie des Geforce 4 ti, la 3 a simplement disparu, idem de l’excellente 980 TI avec les 1080 et l’équivalente en perf de la 1070). Il faut se mettre dans la tête que sur ce marché de niche (et de riche) Nvidia et AMD fonctionne en flux tendu et il y a fort à parier que la 1080 TI soit en fin de vie sur les chaines de montage. Pour le B/MG c’est une autre histoire, il n’empiète pas sur les vente de leur vitrine technologique. Comme si ces rapaces allaient te laisser le choix de payer moins cher pour les mêmes perf.
narco
Moi je me suis trouver une petite 1080 ti à 450€. vu que le RTX ne m’intéresse absolument.
madforger
Il est où le test ?<br /> là ce n’est que du blabla publicitaire de chez nvidia…
olivierEric
Beaucoup trop cher !<br /> En attendant que les 1070 passent sous les 300 euros, si ça arrive …<br /> Le prix des technologie a grimpé ou c’est moi, entre les smartphones, les cg, les procos, il n’y aurait pas un facteur externe qui plombe tout ?
burnit
Seulement en 4k il fait la différence, aucun intérêt, vu qu’il suffit de baisser un peu le niveau de détail pour arriver au même performance. L'article ne fait aucun lien en prix/performance avec l'ancienne génération, ma note serait un gros bien rouge vu les performance apportées.
davebe
Idem ! J’avais anticipé et me suis pris une 1080ti d’occaz à 500 euros (avec 1 an et demi de garantie restante) le jour de la conférence d’nvidia. Et bien m’en a pris quand je vois les tests du rtx ! Je ne regrette pas du tout !
warkiller49
pour une performance relativement proche je prefere prendre une 1080TI au lieu de la 2080 TI ou autres 2080 pour pres de 400€ de moins.
burnit
Deux 1080 ti maxi 1000€ en sli 83482 3dmark vantage<br /> Le 2080 ti 1300€ et 54000 score vantage.<br /> C’est quoi l’arnaque ?<br /> Bizzarement aucun média presse ne veut faire part du prix/performance, tous mettent plus ou moins 4 à 5 étoiles.<br /> Payer plus cher pour moins de performances.
Fodger
Comment pouvez-vous mettre une telle note avec une consommation électrique si élevée !<br /> Franchement ce n’est pas sérieux, en 2018 à l’heure des problématiques énormes sur la pollution et le réchauffement il est temps que la presse mette la pression.
dante0891
Pour le prix, je ne sais pas.<br /> C’est une somme certes, mais préférez -vous acheter une RTX2080TI à 1250€ ou un I-phone XS max au même prix ?<br /> Pour ma part c’est hors budget que ce soit pour le téléphone ou la carte graphique.<br /> Mais la personne de type “joueur” qui me sort que la CG est chère alors qu’elle va lui durer 5ans minimum et que cette même personne va s’acheter le téléphone nu et qui va le vendre une misère dans 1-2ans pour acheter le nouveau modèle (juste pour du FB, Snapchat et Instagram), je ne comprend pas sa logique.<br /> Perso, j’aimerai pouvoir m’offrir une CG à 800€ mais j’ai d’autres priorités qui ne sont malheureusement pas spécialement pour mon plaisir personnel. (Je m’étais fait un PC semi-gamer il y a 8ans pour 800€ mais voilà, sur certains jeux actuels (Fallout 4 ou GTA5), mon PC ne suit plus (sauf à mettre en 800*600 mais c’est trop horrible pour jouer).<br /> Bref, pour dire que même si les RTX2080 reste un peu plus chers qu’une 1080, est-ce que ça ne vaut pas le coup d’investir un peu plus ? Avec les jeux qui arrivent et qui vont demander un peu plus de ressource, la 1080 devrait commencer à s’essouffler. Au lieu d’avoir 60FPS il y en aura 50 (c’est que dalle mais du coup il faudra baisser la résolution par exemple).
Rolls99
Vous avez tendance à oublier qu’il y a 1 an /6 mois le prix des GPU a explosé uniquement à cause des mineurs de bitcoin… revers de la médaille, aujourd’hui ils ne peuvent plus rentabiliser ces GPu et les vendent.<br /> Pour le coup acheter une GTX 1080 d’oaccs… mauvaise affaire si elle a servi à miner.<br /> Je vois pas pourquoi les GTX neuves baisseraient étant donné que RTX est une nouvelle gamme et que la gamme GTX sera remplacée l’année prochaine.<br /> La RTX est plus puissante, intègre des fonctionnalité non dispo sous GTX, plaignez vous du prix auprès des consommateurs qui les ont fait exploser avec leur BTC à la co*, pas Nvidia
galen49
Comment pouvez-vous ne pas mettre en point négatif le prix de ces nouvelles cartes graphiques ???
slc974
Comparer des cartes récentes RTX avec des founder édition 1080 ti et 1080 vielle de 2 ans c’est purement un scandale et du gros foutage de gueule, quand on sait que les cartes récentes du commerces sont pour certaines près de 35% plus performantes qu’une founder édition (je parle uniquement des gtx 1080 et ti). Ma 1080ti monte en boost à près de 2GHz, je suis très loin de vos perf ridicules avec vos vieux bench de founder. Vous faites tout simplement miroiter aux gens des perfs qui ne sont pas en rapport avec la réalité du marché. Si les gens voyaient les comparatif des cartes actuelles 1080 et 1080ti, personne n’achèterait les RTX à leur prix actuel.<br /> Pour moi vous n’êtes donc pas impartial car vous ne pouvez pas ignorer cela, et vous êtes à la solde des constructeurs, tout simplement.
steeven_eleven
Voilà avec la fin des abrutis de mineurs il y a des millions de gtx 1070-1080 qui débarquent dans l’occasion. Par contre je ne vois pas le problème qu’est-ce qu’on s’en fout qu’elle ai servi à miner, change le ventilo et encore souvent le ventilo était mis de côté pour du waterzoid
huberlevert
Sympa les vidéos technologiques mensongères, j’en ai vu une qui montrait les prouesses du Ray machin une sans ombre avec une GTX 1080 et une avec les ombres sur une carte RTX. Nvidia prend les gens pour des imbéciles? la portée des ombres de qualités dans les jeux existent depuis longtemps!
Fodger
240 watts, en 2018 c’est franchement honteux.<br /> Quand l’humanité se réveillera “merde on a vraiment consommé comme des connards” il sera sans doute trop tard.<br /> Clubic, prenez de l’avance : QUID de l’impact écologique sur la fabrication, usage de métaux rares etc. ?
yAAm
Cette carte introduit sous la carotte du RT des TC qui accélèrent TensorFlow, principalement pour les CNN. Donc si tu ne fais pas de recherche sur les CNN, ou que tu n’utilise pas tensorflow intensivement, à ce jour, cette carte ne te sert à rien de plus qu’une 1080Ti.
Urleur
Le prix, j’ai une 1070 ti je vais pas en changer avant longtemps
molotofmezcal
Quand je vois les prix, je suis bien content de ne pas etre gamer depuis un bail et d’acheter mes cpu/gpu 100e max une fois tous les 10 ans.
sebpirate62
je me suis lancé et j’ai pris la rtx 2080ti. Alors oui le prix c’est juste abusé mais si mes souvenir sont bon, c’était pareil a la sorti de la 980ti et 1080ti.<br /> pour les perfs, j’avais une gtx 1070ti et la différence de perf est enorme.<br /> j’ai par contre un probleme de micro lag sur black ops 4.<br /> je l’utilse sur mon nouvelle ecran hp omen 27 pouces gsync 165hz en 2k, c’est magnifique mais j’ai bien galéré à regler mes jeux , car, avec le gsync d’activé, ça créer des micro lag sur cs go par exemple.<br /> Alorsds pendant plusieurs joursn j’ai du parametrer jeux par jeux dans le panneau de contrôle nvidia.<br /> une vraie galere.<br /> D’ailleurs si on peut me conseiller svp var j’ai un rysen 2700x et je sais pas si c’est mieux de laisser les 16 cœurs ou desactiver pour rester sur les 8 cœurs physiques, merci
Funkee
Est ce que tu as bien désactivé la synchro verticale dans tous tes jeux, et retiré les limites de framerate ? Gsync ON = Vsync OFF systématiquement. Il faut aussi mettre tes jeux en plein écran, voir plein écran exclusif si dispo. Même si tu as activé la Gsync en plein écran + fenêtré dans le panneau de config des drivers NVIDIA. Je te conseille de restaurer les paramètres par défaut pour tous les profils de jeux, tu ne devrais pas avoir à y toucher pour que ça fonctionne impec. De mon coté je n’ai aucun problème sur la 2080 Ti FE. Je suis sur un Core i7 8700K, donc compliqué de te conseiller sur la config du Rysen, mais tu trouvera probablement un expert dans le coin.
sebpirate62
salut Kakek. je suis pas d’accord avec toi. Je m’explique: tu dis qu’il y a environ 150 d’ecart pour les mêmes performances.<br /> Ayant acheté la rtx 2080 msi trio x gaming, je peux t’assurer qu’il y a une très grosse différences en 2k par rapoort a la 1080ti.<br /> Si tu veux jouer en 24k en 144 ou 165hz ou en 4k 60fps, la 2080 t’offre ce confort qu’aucunes cartes était capable de le faire (je parle bien du 2K en ultra).<br /> Je suis d’accord sur les prix élevés de nvidia, mais j’ai l’impression que ça choque bcp de personnes mais en réalité, nvdia n’a rien changé quant à sa politique de prix car les cartes haut de gamme à leurs sorties à toujours couté très cher, comme les rtx (gtx 780ti, 980ti, 1080ti)<br /> Mais concernant les rtx, même si on profite pas encore du ray tracing (ça commence avec bf5, tomb raider, pubg,…), il faut aussi parler des perfs et je t’assure qu’elles sont énormes.
sebpirate62
merci bcp pour tes conseils, mais un jeu comme cs go, je suis obligé de desactiver le gsync et le mettre en 'fixation), sinon, ça lague.
pat-hp
hou la le prix ça fait mal
Krypton_80
&lt;&lt; Je profite de faire un constat: que l’architecture Turing se concentre beaucoup sur le rendu RayTracing, qui est à mes yeux (et de certains aussi) un gadget. Car oui, il faut se demander si la RTX 2080 Ti sera capable de faire tourner un jeux en 4K avec ce rendu, ou du moins en Full-HD. Nvidia nous avait fait son show pendant sa conférence en montrant les 2 séquences (Star Wars et l’astronaute qui danse), mais aucune infos sur les configs employées. Ben pour celui de Star Wars, c’était 5x GeForce TITAN V qu’il a fallut pour faire tourner cela, et 5x GV100 = 650 TFLOPs FP16 (Tensors Cores), alors la 2080 Ti avec ses pauvres 110 TFLOPs, laissez moi rire (ou 220 au mieux, vu qu’on peut mettre une carte en plus)…Rien que par cette base: Turing est morte-née en ce qui concerne le RayTracing. &gt;&gt;<br /> En effet, d’ailleurs nVidia à dû mettre 24 GB sur sa Titan Turing pour pouvoir justifier son prix… titanesque, alors que 12 GB étaient largement suffisants pour ce GPU RTX, surtout comparé au prix davantage justifié d’une Titan Volta à 3100€ et ses 12 GB de HBM2 !
lucasnoop
Je ne comprends pas pourquoi les scores en 4k sont supérieurs à ceux en resolution inférieur sur unigine, n y a t’il pas une erreur?<br /> Quelqu’un peut m’éclairer ?<br /> Merci
masaku
5 mois après je suis vraiment dégouté de la politique tarifaire ne Nvidia qui abuse totalement de sa position dominante.<br /> Je me suis payé une 1070 msi gaming x à 410€ en Mars 2017 !!<br /> Actuellement et depuis ce jour je n’ai jamais vu baisser cette 1070, en fait elle à meme augmenté pour atteindre 2 ans après un tarif qui frole les 490€ !!<br /> En 30 ans d’informatique je n’ai JAMAIS vu un truc pareil. Les anciennes génération au lieu de baisser augmentent et les nouvelles gen atteignent des tarifs stratosphériques.<br /> Toujours dans la même gamme des Msi Gaming, une 2070 c’est 600€ soit 30% plus chère (200€) que la 1070 peu de temps après sa sortie.<br /> Et si on parle d’une 2080 là encore il faut compter 250€ de plus soit plus ou moins 850€<br /> il y’a 5 mois je m’étais dit naïvement que l’arrivé du Turing allait faire baissé les Pascal et que de ce fait on pourrait se lacher sur des bonne affaire de 1080Ti … que nini ces dernières n’ont jamais vraiment baissé elles ont augmenté aussi puisqu’elles se trouvaient a plus de 800€<br /> De toute façon Nvidia ne produit plus de Pascal et vérouille totalement le marché en ne proposant que des Turing à des tarifs de folie.<br /> J’ai acheté des dizaines de CG souvent dans le HdG et presque toutes les générations, mais là c’est pas possible d’être autant pigeonné ! autours de 500€ pour une Gtx xx80 c’était honnête, mais 800€ pour une 2080 même pas Ti faut pas déconner !<br /> Nvidia Carton Rouge!
Funkee
Dans Unigine, le test en 4K ne permet pas de régler les shaders en "extreme"comme pour les résolutions inférieures. Du coup le plage des scores n’est pas comparables avec le 1080p/1440p.
Voir tous les messages sur le forum
Haut de page

Les derniers tests

Carte graphique : tous les derniers tests