Test NVIDIA GeForce RTX 4090 Founders Edition : un colosse graphique tout sauf raisonnable !

Nerces
Par Nerces, Spécialiste PC & Gaming.
Publié le 15 novembre 2022 à 14h29
© NVIDIA
© NVIDIA

Un chouia en « retard » par rapport à la date de sortie de la génération de cartes graphiques précédente, NVIDIA met aujourd’hui le cap sur les GeForce RTX 4000, dites « Ada Lovelace ». Les choses débutent de manière sérieuse avec le modèle le plus musclé de la gamme : à présent disponible, la RTX 4090 est un monstre, dans tous les sens du terme.

Les plus
  • Performances affolantes !
  • DLSS 3 très convaincant
  • Ventilation plutôt discrète
  • Échauffement contenu
  • Design encore très réussi
  • Connecteur 12VHPWR
Les moins
  • Est-ce bien raisonnable ?
  • Pas de sortie USB-C
  • Prix et taille, forcément

La gamme Ada Lovelace, comme les Turing ou Ampere avant elle, est prévue pour nous arriver en plusieurs salves. Une fois n’est toutefois pas coutume, NVIDIA démarre fort et alors que les séries 1000, 2000 ou 3000 avait été lancées par le modèle x080, c’est donc la RTX 4090 qui ouvre le bal. Un aveu de faiblesse sur le reste du catalogue ou une manière de faire trembler son concurrent direct alors qu’AMD prévoit de présenter RDNA 3 dans un tout petit mois ?

MàJ 15/11/2022 : notre test de la GeForce RTX 4080 est disponible.

Fiche technique NVIDIA GeForce RTX 4090

Résumé
Mémoire vidéo24Go
Type de mémoireGDDR6X
Technologie(s) d'affichage compatible(s)G-Sync
Sorties vidéoHDMI 2.1, DisplayPort (x3)
Performances
Fréquence de base2.24GHz
Fréquence Boost2.52GHz
Processeurs de flux16384
Mémoire vidéo24Go
Interface mémoire384 bits
Type de mémoireGDDR6X
Consommation450W
Affichage
Technologie(s) d'affichage compatible(s)G-Sync
VR ReadyOui
Définition d'affichage maximale7680 x 4320 pixels
Connectivité
Sorties vidéoHDMI 2.1, DisplayPort (x3)
Nombre d'écran(s)4
Connecteur(s) d'alimentationPCI Express 16 Broches
BusPCI Express 4.0 16x
Caractéristiques physiques
Longueur304mm
Largeur137mm
Epaisseur61mm
LEDNon
Type de refroidissementActif (fansink)
Nous n'avons encore que la RTX 4090, mais les RTX 4080 arrivent... © NVIDIA

76,3 milliards de transistors

Mathématicienne du XIXe siècle, Ada Lovelace est passée à la postérité pour avoir écrit le premier programme informatique conçu pour être exécuté par une machine. En dehors de son enthousiasme pour les calculateurs universels, on cherchera en vain un lien entre Augusta Ada King, comtesse de Lovelace et la société NVIDIA qui s’approprie donc le nom de l’Anglaise pour sa troisième génération de GPU RTX.

Pas tout à fait sûr que cette illustration soit réellement d'époque © NVIDIA

De prime abord, on est un peu déçu de voir que finalement NVIDIA a décidé de repousser l'utilisation d’une architecture multichip – à base de chiplets – comme c’est le cas sur les Ryzen. Il faudra vraisemblablement attendre la sortie de la génération Hopper, architecture datacenter prévue par NVIDIA en parallèle de Lovelace. Nos GeForce RTX 4000 se fonderont sur un GPU « vieille école » que l’on qualifie de monolithique pour signifier qu’il se repose sur un die unique.

Pour autant, NVIDIA ne semble pas avoir lésiné sur les nouveautés. Au cœur de l’architecture se trouve donc le GPU AD102 lequel se repose sur le processus de gravure 4N du Taïwanais TSMC. Une finesse de gravure plus importante (5 nm) qui a permis à NVIDIA de « tasser » davantage de transistors comme le rappelle notre intertitre : l’AD102 agrège la bagatelle de 76,3 milliards de transistors dans sa version complète alors que le GA102 de l’architecture Ampere se contentait de 28,3 milliards !

Le GPU AD102 dans toute sa superbe © NVIDIA

Nous aimons autant que vous les comparaisons alors continuons. Toujours dans sa version complète, l’AD102 totalise 18 432 cœurs CUDA contre seulement 10 752 sur le GA102. Il est aussi question de 144 streaming multiprocessors contre 84, de 144 cœurs RT contre 84 et de 576 cœurs Tensor contre 336. Si la capacité, l’interface et la fréquence mémoire sont identiques (24 Go, 384-bit, GDDR6X), le GPU profite d’une fréquence de boost largement améliorée, 2,5 GHz contre 1,9 GHz.

Fiches techniques comparées des RTX 3090 Ti et RTX 4090 © NVIDIA

3e gen de cœurs RT, 4e gen de cœurs Tensor

Depuis tout à l’heure, nous parlons de « version complète » du GPU AD102 car sur la GeForce RTX 4090, NVIDIA a opté pour une mouture légèrement amoindrie. Sans doute une façon de se laisser une marge de manœuvre pour une future RTX 4090 Ti. Toujours est-il que la RTX 4090 se limite à 16 384 cœurs CUDA, 128 cœurs RT et 512 cœurs Tensor. Côté fréquence GPU ou mémoire vidéo en revanche, rien ne change.

NVIDIA a réduit les besoins en stockage des cœurs Tensor © NVIDIA

Comme vous pouvez en juger sur le tableau un peu plus haut, même avec un GPU amoindri, la GeForce RTX 4090 dispose d’une fiche technique largement supérieure à celle de la GeForce RTX 3090 Ti, pourtant déjà une belle bête. Au-delà des chiffres, NVIDIA tient toutefois à transmettre un message : toutes les technologies mises en œuvre ont évolué. Il est maintenant question de cœurs RT de 3e génération et même de 4e génération pour les cœurs Tensor.

Les cœurs Tensor sont des spécialistes de l’intelligence artificielle (IA) et du « calcul haute performance » (HPC). NVIDIA insiste sur l’introduction d’un nouveau format de données (FP8) qui vient « réduire de moitié les besoins en stockage tout en doublant les performances d’IA ». Avec une puissance de traitement de 1,3 PetaFLOPS, cette 4e génération permet à la RTX 4090 de doubler celle des cœurs Tensor de la RTX 3090 Ti.

Le traitement ray tracing profite nettement des nouveaux cœurs RT © NVIDIA

Comme leur nom l'indique, les cœurs RT sont conçus pour accélérer le traitement du rendu ray tracing. Sur sa 3e génération de cœurs, NVIDIA introduit deux nouveautés essentielles, les moteurs Box Intersection et Triangle Intersection : leur objectif est l'augmentation du niveau de détails en doublant le débit d'intersections rayon-triangle. Par ailleurs, le moteur Opacity Micromap rend plus rapide la création d'objets translucides tandis que le Displaced Micro-Mesh dope la création de volumes complexes. L'un dans l'autre, NVIDIA annonce un traitement ray tracing 2,8x plus efficace sur Lovelace par rapport à Ampere.

Optimisation des shaders

Parallèlement à cette remise à niveau des cœurs RT et Tensor, NVIDIA a largement augmenté le nombre de multiprocesseurs de streaming (SM). On parle de 128 unités contre 84 sur la RTX 3090 Ti. Non content d’être plus nombreux, ces SM sont déchargés d’une partie de leur travail par les cœurs RT. Ils peuvent dès lors déployer toute leur puissance : NVIDIA évoque 83 shader-TFLOPS, deux fois plus que ce qu’offrait Ampere.

En bas, le SER vient trier dynamiquement les données © NVIDIA

Pour ne rien gâcher, une nouvelle technologie a été mise en place, le Shader Execution Reordering (SER). Il s'agit de réorganiser à la volée les tâches de gestion des shaders. Les SM ne sont plus contraints d’attendre les bonnes données pour avancer, elles sont dynamiquement réorganisées afin d’améliorer l’efficacité de toute la procédure de shading. NVIDIA parle de performances en hausse de 44% sur Cyberpunk 2077.

DLSS 3 : une percée « révolutionnaire » ?

Multiprocesseurs de streaming, cœurs RT et cœurs Tensor sont les trois composantes essentielles de l’architecture Lovelace laquelle est entièrement tournée vers le DLSS 3. NVIDIA ne mâche pas ses mots pour évoquer la troisième version de sa technique de super-échantillonnage qu’il juge tout bonnement « révolutionnaire ». Pour justifier ce superlatif, le fabricant évoque un « rendu neuronal » qui se base tout d’abord sur les progrès du DLSS 2.

Fonctionnements comparés de DLSS 2 et DLSS 3 © NVIDIA

Sur le principe, on part donc toujours d’une image rendue en 1 080p par exemple, et de vecteurs de mouvement pour en travailler l’échantillonnage dans une définition plus élevée. Toutefois, le DLSS 3 ne se contente pas de cette étape et NVIDIA introduit ce qu’il nomme l’Optical Flow Accelerator. Ce dernier analyse deux images séquentielles du jeu et en tire un « champ de flux optique » qui permet de prendre des informations sur la direction et la vitesse des pixels.

Résumé de toutes les caractéristiques du DLSS 3 © NVIDIA

Au travers de ces deux images retenues, l’accélérateur de flux optique analyse les particules, les ombres, les reflets et les éclairages. Le DLSS 3 ajoute une analyse des vecteurs de mouvement dans le but de suivre les « déplacements géométriques » dans la scène et combine ces multiples informations. Pour chaque pixel, le moteur de génération des images de DLSS 3 est alors capable de décider comment utiliser ces éléments pour créer des images intermédiaires, les imaginer avant même leur rendu.

Sachez qu'à la sortie de la GeForce RTX 4090 – le 12 octobre – il est prévu que plus de 35 jeux et outils soient compatibles avec le DLSS 3 parmi lesquels A Plague Tale: Requiem, Cyberpunk 2077, F1 22, Hitman 3, Microsoft Flight Simulator, Portal with RTX, S.T.A.L.K.E.R. 2: Heart of Chernobyl, The Lord of the Rings: Gollum, The Witcher 3: Wild Hunt, Warhammer 40,000: Darktide

Les plus de 35 jeux et outils DLSS 3 prêts au 12 octobre © NVIDIA

Prendre le bon Reflex

En utilisant aussi bien les vecteurs de mouvement du moteur graphique déjà exploités par DLSS 2 et en y ajoutant le flux optique pour suivre le mouvement, DLSS 3 est capable de reconstruire avec précision à la fois la géométrie et les effets graphiques. Ce processus est géré par ce que NVIDIA baptisé le DLSS Frame Generation. Problème, l’opération ne se fait pas en claquant des doigts et elle entraîne nécessairement une certaine latence. C’est là que Reflex entre en jeu.

La « latence système » dans le détail : Reflex réduit la render queue © NVIDIA

Déjà présenté par NVIDIA dans le cadre du développement de l’eSport. Reflex s’offre ici un nouveau débouché. Il n’est plus nécessairement question de se plier aux besoins des amateurs de jeux compétitifs, mais plutôt de compenser la latence induite par DLSS 3. De fait, Reflex est partie intégrante de DLSS 3 : en synchronisant le travail du CPU et du GPU, Reflex s’assure qu’aucun de deux ne prenne l’ascendant sur l’autre, réduit la latence et rend l’ensemble plus réactif.

Duo d’encodeurs AV1

Sans doute plus anecdotique pour de nombreux lecteurs, mais pas pour les futurs acheteurs de la gamme RTX 4000, l’architecture Lovelace assure, de manière matérielle, l’encodage AV1. Celui-ci vient bien sûr en plus des H.264/H.265 des RTX 3000, mais se montre plus efficace : au choix, on peut conserver le bitrate pour améliorer la qualité d'encodage ou opter pour un bitrate plus faible tout en gardant une image identique. Ce second cas permet alors de réduire nettement la taille des vidéos.

Aperçu des performances du double encodeur AV1 de la RTX 4090 © NVIDIA

NVIDIA estime que l’encodeur AV1 de Lovelace est 40 % plus efficace que l’encodeur H.264 d’Ampere et précise que les GPU RTX 4000 n’intègrent plus un, mais deux moteurs d’encodage. Le but est de les faire travailler en parallèle : Lovelace est à même de scinder les images en moitiés qu’il envoie simultanément aux encodeurs pour, ensuite, recomposer une scène unique à expédier pour finaliser la vidéo. L’encodage est ainsi deux fois plus rapide que sur un GPU RTX 3000.

La RTX 4090 FE à côté de la RTX 3080 Ti FE © Nerces

RTX 4090 : la Founders Edition dans le détail

Vous n’êtes pas sans savoir que NVIDIA compte sur de nombreux partenaires pour produire des cartes graphiques RTX 4090 en plus du modèle Founders Edition que nous testons. Ces modèles « partenaires » présentent un design nettement différent et souvent plus volumineux que la carte NVIDIA avec une triple ventilation qui doit permettre de pousser un peu les fréquences de fonctionnement du GPU.

NVIDIA et Gamers Nexus détaillent le refroidisseur de la RTX 4090… avec violence !

Dans le cas de la Founders Edition, on se trouve en présence d’un design très proche de celui des GeForce RTX 3090 FE et RTX 3090 Ti FE. Un carénage au style très épuré vient masquer l’imposant dissipateur, lequel est conçu autour d’un assemblage de caloducs et d’une chambre de vapeur. Ces deux éléments viennent « extraire » la chaleur émise par le GPU pour la conduire vers les multiples ailettes du bloc de dissipation. Ensuite, des ventilateurs se chargent de l’expulser comme nous vous l'avions expliqué lorsque nous avons fait l'unboxing de la carte.

Notre GeForce RTX 4090 Founders Edition sous toutes les coutures © Nerces

NVIDIA souligne que malgré la proximité apparente du design, son dissipateur a été retravaillé afin d’accentuer son efficacité. Il précise surtout que de nouveaux ventilateurs ont été mis en place : plus grands, exploitant des roulements dits « fluid dynamic » et placés en rotation inversée, ils doivent produire un flux plus important tout en réduisant les nuisances sonores. Pour le même niveau de bruit, NVIDIA évoque un flux 15% plus efficace.

HWInfo est le premier logiciel à faire le point sur notre carte © Nerces

Protocole de test

Afin de faire honneur aux cartes graphiques de nouvelle génération, nous avons largement revu notre protocole de test. Bien sûr, la base reste la même en ce sens qu’il ne nous semblait pas utile de refondre la configuration mise en place.

Nous enchaînons ensuite avec les multiples onglets de CPU-Z © Nerces

Configuration de test

  • Carte mère : ASUS ROG Maximus Z690 Hero
  • Processeur : Intel Core i9-12900K
  • Mémoire : Kingston Fury DDR5-4800 CL38 (2x 16 Go)
  • SSD « système » : Kingston KC3000 2 To
  • Refroidissement : ASUS ROG Ryujin II 360
  • Alimentation : be quiet! Straight Power 11
Avant de conclure cet état des lieux avec GPU-Z © Nerces

Les logiciels mis en œuvre ont évolué. Nous sommes sur Windows 11 en version Professionnel 64-bit 22H2 22621.607. NVIDIA nous a fourni la dernière mouture de ses pilotes (521.90) afin que la RTX 4090 FE soit reconnue et notre plateforme Z690 exploitait les pilotes chipset Intel 10.1.18838.8284. Pour la Radeon RX 6900XT, ce sont les pilotes AMD 22.20.29.01 RC6 qui ont été employés.

Tout est en place, même l'adaptateur et les câbles 8 broches ! © Nerces

Qu’en est-il des performances ?

Inutile de vous faire un dessin, la GeForce RTX 4090 est une carte puissante, très puissante même, qu’il n’est pas utile de comparer à une GTX 1650 par exemple. Nous avons décidé de réduire considérablement les graphiques et de ne comparer notre cobaye du jour qu’aux GeForce RTX 3080 Ti, RTX 3090 et Radeon RX 6900XT.

3DMark

Performances observées sur 3DMark © Nerces

Utilisé depuis la nuit des temps, 3DMark est un outil pratique pour évaluer rapidement une configuration. Il ne saurait toutefois se substituer à des tests « réels », ce n’est qu’un indicateur. De manière générale, les Radeon RX se comportent bien avec ce soft, mais la RTX 4090 est intouchable.

Les écarts sont stupéfiants et sur TimeSpy Extreme, la RTX 4090 vient plus que doubler les résultats de la RTX 3090. En toute logique, une RTX 3090 Ti – que nous n’avions pas sous la main – aurait permis à Ampere de limiter les dégâts, mais pas de modifier l’impression de facilité qui émane de la RTX 4090 laquelle domine de la même manière sur la scène Port Royal favorisant le ray tracing.

Blender Benchmark

Performances observées sur Blender Benchmark © Nerces

Alors que nous sommes en pleine refonte de notre protocole de test, nous avons décidé d’intégrer un outil plus « professionnel » afin de rendre compte d’un usage moins ludique. Par son moteur de rendu 3D, Blender Benchmark met davantage à contribution les GPU puissants et exploite pleinement les 24 Go de GDDR6X de la RTX 4090.

De manière encore plus nette que sur 3DMark, la petite dernière de NVIDIA s’assure une première place méritée. Aucune contestation n’est possible et si les Radeon RX 6000 ne brillent pas sur cet exercice, même les plus puissantes cartes Ampere sont largement distancées : on parle tout de même de doubler les performances d’une RTX 3080 Ti.

Cyberpunk 2077

Performances observées sur Cyberpunk 2077 © Nerces

S'il est toujours difficile de parler de « plus beau jeu du monde », il est certain que Cyberpunk 2077 est une merveilleuse vitrine technologique du monde PC. Pourtant, notre premier test ne cherche pas à mettre genoux les cartes graphiques en se focalisant sur le seul rendu « ultra ». La RTX 4090 s’impose tout de même largement, notamment en 4K où l'on note un progrès de plus de 50 % par rapport à la RTX 3090.

Cyberpunk 2077 et le ray tracing

Performances observées sur Cyberpunk 2077 en mode ray tracing © Nerces

Afin d'enfoncer le clou et, surtout, de se tourner vers l’avenir, nous faisons un second test Cyberpunk 2077 en activant cette fois le ray tracing en mode « ultra ». Nous optons aussi pour le mode de super-échantillonnage le plus indiqué de chaque carte, en réglage « équilibré ». Une configuration qui sied à merveille à la RTX 4090.

Les valeurs en 1 080p et 1 440p n’ont pas grand intérêt, mais en 4K, la carte écrase la concurrence avec des performances en progrès d’environ 80 % sur les RTX 3080 Ti et RTX 3090. Ray tracing oblige, la Radeon RX 6900XT n’est pas à son aise et les progrès sont ici de 180 % en se tournant vers la carte Lovelace. Impressionnant.

Far Cry 6

Performances observées sur Far Cry 6 © Nerces

Sur le jeu d’Ubisoft Montréal, la RTX 4090 est moins à son aise. D’emblée, on note qu’il n’est pas question de jouer en 1 080p ou en 1 440p sur une telle carte : elle ne fait pas réellement mieux que les RTX 3080 Ti / RTX 3090, elle est comme on dit dans le jargon CPU bound, limitée par le CPU.

En 4K, elle l’emporte sans difficulté sur toutes ses concurrentes, mais les écarts sont moins nets que sur Cyberpunk 2077. Par rapport à la RTX 3080 Ti, sa poursuivante la plus performante, la RTX 4090 assure des progrès d’exactement 40 % sur Far Cry 6 avec le ray tracing activé.

Forza Horizon 5

Performances observées sur Forza Horizon 5 © Nerces

Sur notre nouveau protocole, la course automobile est représentée par le magnifique Forza Horizon 5 qui ne souffre que d’un défaut : la prise en charge du ray tracing se limite au seul garage. En jeu, les écarts sont malgré tout très importants et la dauphine de notre cobaye du jour est de nouveau la RTX 3080 Ti, laquelle ne peut toutefois rien faire et le gain est cette fois de presque 64 %.

Marvel’s Guardians of the Galaxy

Performances observées sur Marvel's Guardians of the Galaxy © Nerces

Encore un peu moins d’écarts avec Marvel’s Guardians of the Galaxy qui permet à la RTX 3090 de mieux figurer. Option ray tracing activée et super-échantillonnage sur équilibré, la carte Ampere signe 99 images par seconde : la RTX 4090 ne fait « que » 46 % de mieux pour atteindre un flatteur 144 ips.

Red Dead Redemption 2

Performances observées sur Red Dead Redemption 2 © Nerces

Les années passent et le jeu de Rockstar Games reste une merveille graphique qui nous permet, en plus, d’ajouter un jeu Vulkan à notre sélection. Une fois encore, nous nous focalisons sur le jeu en 4K avec les détails en ultra et, une fois encore, la RTX 4090 écrase la concurrence.

Par rapport à la Radeon RX 6900XT d’AMD (67 ips), la carte NVIDIA signe des performances 90 % plus élevées. Notre duo de RTX 3080 Ti/RTX 3090 fait un peu mieux bien sûr. Pourtant, la RTX 4090 fait encore 67 % de mieux pour assurer une moyenne de 127 images par seconde.

Total War Warhammer 3

Performances observées sur Total War Warhammer 3 © Nerces

Le dernier jeu de notre sélection n’est autre que le Total War Warhammer 3 de The Creative Assembly. Plusieurs scènes étant disponibles, nous avons retenu celle du champ de bataille, théâtre de nouveaux exploits pour la RTX 4090.

Notons qu’il s’agit du seul jeu de notre sélection où les cartes graphiques ne sont pas limitées par le processeur et, même en 1 080p, la hiérarchie s’installe aisément avec une RTX 4090 supérieure de 53 % à sa dauphine, la RTX 3080 Ti.

Logiquement, le classement reste le même en 4K avec une RTX 3090 en troisième position, une RTX 3080 TI sur la seconde marche du podium et une RTX 4090 qui caracole en tête assurant des performances 68 % supérieures à celles de sa poursuivante.

Coup de projecteur sur DLSS3 / Reflex

Soucieux de mettre en avant certaines de ses nouveautés technologiques, NVIDIA a conçu des outils qui, il faut le reconnaître, simplifient grandement notre travail de testeur.

  • Grâce à FrameView, il est simple de mesurer la moyenne du nombre d’images par seconde, mais également des pires 1 % ou du temps de latence de la machine.
  • De son côté, ICAT simplifie la juxtaposition de deux vidéos afin de comparer le niveau de détail ou, dans le cas présent, le résultat du traitement DLSS.

Notez bien que sur les graphiques ci-dessous, la notion de latence (exprimée en millisecondes, ms) doit être lue « à l'envers » : plus le score est faible, plus le PC est réactif et plus le jeu est agréable.

A Plague Tale: Requiem

Performances observées sur A Plague Tale: Requiem © Nerces

Sur le jeu d’Asobo Studios, on note le boost de performances offert par l'activation du DLSS 3. Au-delà de la seule moyenne du nombre d’images par seconde, c’est d’ailleurs le 1 % faible qui impressionne.

Rappelons qu’il s’agit de nous dire que sur les 1 % du temps où la fluidité est la plus mauvaise, A Plague Tale: Requiem tourne encore à 149 images par seconde grâce au DLSS 3 alors qu’en DLSS 2, il faut se contenter de 85 ips, en 4K. Notons que DLSS 2 a toutefois pour lui une meilleure latence et que Reflex ne suffit pas à ramener le DLSS 3 au même niveau.

À gauche en natif 4K et à droite en DLSS 3 © Nerces
Zoom 400% : à gauche en natif 4K et à droite en DLSS 3 © Nerces

La chose est extrêmement subjective, mais afin que vous puissiez vous faire une petite idée du rendu proposé par DLSS 3, nous avons mis côte-à-côte, deux images du jeu d’abord à 100 % puis à 400 % : sur la gauche, vous avez le rendu en mode natif 4K et, à droite, la version DLSS 3 calée sur le réglage équilibré.

F1 22

Performances observées sur F1 22 © Nerces

Sans doute quelques optimisations sont encore à réaliser sur A Plague Tale: Requiem car F1 22 est plus en phase avec les ambitions de NVIDIA. D’abord, le DLSS 3 assure une fois encore une fluidité exemplaire même en 4K et même en considérant le 1 % faible.

Mais là où les choses deviennent très intéressantes c’est que ce gain de fluidité ne se fait pas au détriment de la réactivité. Le frame generator du DLSS 3 entraîne bien un accroissement de la latence, mais il est presque entièrement compensé par Reflex : on est à 28 ms quand on poussait à 27 ms sur DLSS 2, autant dire la même chose.

À gauche en natif 4K et à droite en DLSS 3 © Nerces
Zoom 300% : à gauche en natif 4K et à droite en DLSS 3 © Nerces

Comme pour A Plague : Requiem, nous vous offrons maintenant la possibilité de comparer le rendu visuel de DLSS 3 à la version 4K native d’abord en 100 % puis en 300 % : sur la droite, le super-échantillonnage de NVIDIA est à l’œuvre alors qu’à gauche, nous sommes en natif…

Cyberpunk 2077

Performances observées sur Cyberpunk 2077 © Nerces

Enfin, pour obtenir un tableau encore un peu plus complet de la situation, nous revenons vers l’inévitable Cyberpunk 2077. Comme les précédents titres, il est parmi les premiers à prendre en charge le DLSS 3, mais nous avons pu ici davantage jouer avec les réglages.

Sans surprise, le DLSS 3 permet d’atteindre les plus hauts niveaux de fluidité et, grâce à Reflex, il peut le faire sans ajouter de latence au réglage DLSS 2 seul. En revanche, Reflex peut aussi être activé sur DLSS 2 et l'on voit alors que la « vieille » solution l’emporte côté réactivité.

NVIDIA ne s’en cache pas : DLSS 3 n’a pas vocation à faire disparaître DLSS 2. Il s’agit d’une solution complémentaire qui arrive pour améliorer le rendu graphique. Dès lors que l’on parle de jeux ultra-compétitifs, la légère latence induite incitera les joueurs à garder DLSS 2.

À gauche en natif 4K et à droite en DLSS 3 © Nerces
Zoom 200% : à gauche en natif 4K et à droite en DLSS 3 © Nerces

Nous terminons par le face-à-face que vous avez déjà pu découvrir sur les deux précédents jeux. Cyberpunk 2077 en mode DLSS 3 est sur la droite alors que la version 4K native est sur la gauche. Nous vous proposons d’abord une image en 100 % puis en 200 %.

De l’efficacité d’Ada : à cheval sur la conso ?

Nous avons peu évoqué la chose, mais en optant pour le processus 4N (ou 5 nanomètres) de TSMC, NVIDIA insiste autant sur la densité de transistors que sur la remarquable efficacité énergétique. Sans trop entrer dans les détails, NVIDIA précise qu’il est peut délivrer « les plus hauts niveaux de performance par watt ». Voyons cela.

Consommation électrique

Sur le strict plan de la consommation électrique, le GPU AD102-300 de la RTX 4090 est évidemment gourmand : il s'agit d'une vitrine technologie pour NVIDIA et ses 433 watts enregistrés au plus fort d'une session de TimeSpy Extreme sur 3DMark n'ont rien d'anormal.

Tentons de rassurer les usagers : sur aucun jeu, sur aucune définition d'images et à aucun niveau de détail, nous n'avons atteint les 400 watts. Dans l'immense majorité des situations ou des logiciels, la moyenne haute s'établit plutôt autour des 370 watts. La RTX 4090 est gourmande, ce n'est pas une surprise. En revanche, cela dépend des usages et il convient tout de même d'insister sur le fait que le jeu vidéo n'est évidemment pas la vocation première d'une telle carte.

C’est aussi la plus puissante, donc – en dehors de toute considération écologique – cette poussée n’a rien de surprenant. Notons en revanche qu’au repos la carte est plus sobre et que, comme toutes les RTX 3000, elle a l’avantage de couper sa ventilation quand elle le peut.

Efficacité et « rentabilité »

Exprimé en euros, le prix public conseillé (MSRP) est représenté sur le graphique ci-dessus par les barres bleues. La valeur chiffrée est précisée à côté de chaque carte.

Entre les sorties des RTX 3000 et 4000, le taux de change euro/dollar a fortement changé affaiblissant le ratio performances/prix de la RTX 4090. En dollars, ce ratio est à 12,2 contre 12,9 pour la RTX 3080.

Au-delà de sa consommation, il nous semblait utile d’évoquer deux indicateurs de l’efficacité de la carte : les performances par Watt et les performances par Euro en prenant à chaque fois le résultat 3DMark TimeSpy Extreme. D’abord en le divisant par la consommation enregistrée et, ensuite, en le divisant par le MSRP au lancement de la carte.

Sur le plan énergétique, il est réconfortant de voir que NVIDIA ne pense pas qu’aux performances : sa RTX 4090 est loin devant les autres cartes graphiques haut de gamme testées sur Clubic et nous sommes impatients d'observer ce que cela peut donner sur des modèles plus modestes.

Du côté des performances par Euro, la RTX 4090 est moins à son aise et se fait damer le pion par la RTX 3080 confirmant l’exceptionnel rapport qualité/prix de la pionnière de la gamme Ampere. Handicapé par la conversion Euro/Dollar défavorable, Lovelace n’a toutefois pas à rougir et, là encore, nous attendons la suite.

Une carte graphique remarquablement puissante... presque trop ? © Nerces

NVIDIA GeForce RTX 4090 FE, l’avis de Clubic

Conclusion
Note générale
9 / 10

Est-ce l’arrivée d’Intel sur ce marché si concurrentiel ou les sorties successives des solutions RDNA d’AMD qui incitent NVIDIA à ainsi repousser les limites ? Sans doute un peu des deux, sûrement aussi que les ingénieurs de la société ont nombre de bonnes idées pour améliorer leurs architectures. Pourtant, alors que les CPU ne progressent plus massivement, les GPU semblent avoir de la réserve.

Il paraît clair que l’architecture Lovelace est promise à un brillant avenir tant les améliorations observées sont décisives, à commencer bien sûr, par le DLSS 3. NVIDIA ayant une fois encore opté pour une solution propriétaire, il aura cependant besoin d’en assurer le suivi auprès des développeurs, lesquels seront peut-être tentés par les appels d’AMD ou Intel avec des solutions certes moins évoluées – nettement moins même – mais également bien plus ouvertes.

Lovelace apparaît comme l’architecture la plus puissante, et par ailleurs la plus efficace. Alors que la sobriété énergétique est sur toutes les lèvres, c’est de bon augure pour les autres déclinaisons de Lovelace. Monstre de puissance, elle est surdimensionnée pour le seul usage vidéoludique à moins d'envisager le jeu en 8K. En revanche, sa réserve de puissance, sa quantité de mémoire et son environnement logiciel en font un outil semi-professionnel remarquable.

Les plus
  • Performances affolantes !
  • DLSS 3 très convaincant
  • Ventilation plutôt discrète
  • Échauffement contenu
  • Design encore très réussi
  • Connecteur 12VHPWR
Les moins
  • Est-ce bien raisonnable ?
  • Pas de sortie USB-C
  • Prix et taille, forcément
Par Nerces
Spécialiste PC & Gaming

Tombé dans le jeu vidéo à une époque où il fallait une belle imagination pour voir ici un match de foot, là un combat de tanks dans ces quelques barres représentées à l'écran, j'ai suivi toutes les évolutions depuis quarante ans. Fidèle du PC, mais adepte de tous les genres, je n'ai du mal qu'avec les JRPG. Sinon, de la stratégie tour par tour la plus aride au FPS le plus spectaculaire en passant par les simulations sportives ou les jeux musicaux, je me fais à tout... avec une préférence pour la gestion et les jeux combinant plusieurs styles. Mon panthéon du jeu vidéo se composerait de trois séries : Elite, Civilization et Max Payne.

Vous êtes un utilisateur de Google Actualités ou de WhatsApp ?
Suivez-nous pour ne rien rater de l'actu tech !
Nos experts recommandent des produits et services technologiques en toute indépendance. Si vous achetez via un lien d’affiliation, nous pouvons gagner une commission. Les prix mentionnés sont susceptibles d'évoluer. En savoir plus
Commentaires (0)
Rejoignez la communauté Clubic
Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.
Commentaires (10)
Popoulo

Merci pour le test.
Effectivement, en perfs brutes, y a un sacré cassage de pattes arrières quand on regarde le graphique de 3DMark.
Pensez-vous faire quelques tests supplémentaires avec des applis pros 3D et video ?

fredolabecane

Celle-là elle enterre tout le monde ni plus ni moins.

kyosho62

Au final elle consomme moins que la 3090Ti

moa

Oui, je m’attendais à bien plus que ça en consommation… sobre qui plus est au repos ^^

Popoulo

Etonné aussi par la consommation. M’attendais à largement plus.
La version Ti devrait remédier à cela. :smile:

Ccts

La question c’est le prix de la 3090… est ce que ça va baisser le temps de vider le stock. Parce que Amazon nous fait croire qu’on fait une affaire avec des -60 % sur le prime day mais vu l’âge de la carte c’est pas vraiment intéressant par rapport à une 4080…

SplendoRage

Je trouve que cette génération Lovelace, si on s’en tient au ratio « transistors / gain » par rapport à Ampere est au final totalement désastreuse, on va pas se mentir.

Je rappelle que Ampere, en version « Full » c’est 23,8 millions de transistors. Là, avec Lovelace, on passe à plus de 76,3 millions de transistors pour un gain de perf au final, qui n’est pas si outrageant que ça …
L’optimisation architecturale de Lovelace est catastrophique puisqu’en susse, il a été nécessaire à Nvidia d’augmenter ENCORE les fréquences … Donc, on a d’un côté 3,2x plus de transistor d’une génération à l’autre, avec une augmentation de fréquence conséquente, et de l’autre, un ratio perf qui n’égale pas un ratio de 1/1 par rapport à Ampere …

C’est au final, très très très décevant … Surtout au vu du prix pratiqué … Cette architecture Lovelace est un échec … Et personnellement, elle me fait penser à l’architecture Rankine des Geforce 5 puisque son nombre de transistors était plus élevé que sur Kelvin (Geforce 4) avec des fréquences égales ou inférieures ce qui a conduit à des perfs désastreuses.
Là, les perfs ne justifient pas les 76,3 milllions de transistors, soit plus de 48 millions de transistors supplémentaires par rapport à Ampere …

Stakh

Presque 2000€, whaow.

Popoulo

Un échec qui finira dans ma toute prochaine tour (selon les resultats en GPU Rend/Video).
Les échecs comme ça, j’en redemande :stuck_out_tongue:
Plus qu’à attendre le 13900K pour voir si c’est aussi un échec de manière à accompagner cette petite carte graphique sinon ça sera un petit 7950X.

SplendoRage

Bah … Y’a ceux qui veulent les dernières évo à des prix dénués de bon sens, et en dehors de toutes logiques. Et il y a les autres … Qui réfléchissent …

Moi je réfléchis … °.°
Et je vais pas claquer 2000 balles pour un GPU dont l’efficiency est tout bonnement lamentable … Alors que Hopper est à contrario, une réussite à ce niveau là par rapport à Volta