🔴 LE BLACK FRIDAY EN DIRECT ! 🔴 LE BLACK FRIDAY EN DIRECT !

Test NVIDIA GeForce RTX 4090 Founders Edition : un colosse graphique tout sauf raisonnable !

Nerces
Spécialiste Hardware et Gaming
15 novembre 2022 à 14h29
100
NVIDIA GeForce RTX 4090 FE © NVIDIA
© NVIDIA

Un chouia en « retard » par rapport à la date de sortie de la génération de cartes graphiques précédente, NVIDIA met aujourd’hui le cap sur les GeForce RTX 4000, dites « Ada Lovelace ». Les choses débutent de manière sérieuse avec le modèle le plus musclé de la gamme : à présent disponible, la RTX 4090 est un monstre, dans tous les sens du terme.

NVIDIA GeForce RTX 4090
  • Performances affolantes !
  • DLSS 3 très convaincant
  • Ventilation plutôt discrète
  • Échauffement contenu
  • Design encore très réussi
  • Connecteur 12VHPWR
  • Est-ce bien raisonnable ?
  • Pas de sortie USB-C
  • Prix et taille, forcément

La gamme Ada Lovelace, comme les Turing ou Ampere avant elle, est prévue pour nous arriver en plusieurs salves. Une fois n’est toutefois pas coutume, NVIDIA démarre fort et alors que les séries 1000, 2000 ou 3000 avait été lancées par le modèle x080, c’est donc la RTX 4090 qui ouvre le bal. Un aveu de faiblesse sur le reste du catalogue ou une manière de faire trembler son concurrent direct alors qu’AMD prévoit de présenter RDNA 3 dans un tout petit mois ?

MàJ 15/11/2022 : notre test de la GeForce RTX 4080 est disponible.

Fiche technique NVIDIA GeForce RTX 4090

Performances

Fréquence de base
2,24GHz
Fréquence Boost
2,52GHz
Processeurs de flux
16384
Mémoire vidéo
24Go
Interface mémoire
384 bits
Type de mémoire
GDDR6X
Consommation
450W

Affichage

Technologie(s) d'affichage compatible(s)
G-Sync
VR Ready
Oui
Définition d'affichage maximale
7680 x 4320 pixels

Connectivité

Sorties vidéo
HDMI 2.1, DisplayPort (x3)
Nombre d'écran(s)
4
Connecteur(s) d'alimentation
PCI Express 16 Broches
Bus
PCI Express 4.0 16x

Caractéristiques physiques

Longueur
304mm
Largeur
137mm
Epaisseur
61mm
LED
Non
Type de refroidissement
Actif (fansink)
NVIDIA GeForce RTX 4090 FE © NVIDIA
Nous n'avons encore que la RTX 4090, mais les RTX 4080 arrivent... © NVIDIA

76,3 milliards de transistors

Mathématicienne du XIXe siècle, Ada Lovelace est passée à la postérité pour avoir écrit le premier programme informatique conçu pour être exécuté par une machine. En dehors de son enthousiasme pour les calculateurs universels, on cherchera en vain un lien entre Augusta Ada King, comtesse de Lovelace et la société NVIDIA qui s’approprie donc le nom de l’Anglaise pour sa troisième génération de GPU RTX.

NVIDIA GeForce RTX 4090 FE © NVIDIA
Pas tout à fait sûr que cette illustration soit réellement d'époque © NVIDIA

De prime abord, on est un peu déçu de voir que finalement NVIDIA a décidé de repousser l'utilisation d’une architecture multichip – à base de chiplets – comme c’est le cas sur les Ryzen. Il faudra vraisemblablement attendre la sortie de la génération Hopper, architecture datacenter prévue par NVIDIA en parallèle de Lovelace. Nos GeForce RTX 4000 se fonderont sur un GPU « vieille école » que l’on qualifie de monolithique pour signifier qu’il se repose sur un die unique.

Pour autant, NVIDIA ne semble pas avoir lésiné sur les nouveautés. Au cœur de l’architecture se trouve donc le GPU AD102 lequel se repose sur le processus de gravure 4N du Taïwanais TSMC. Une finesse de gravure plus importante (5 nm) qui a permis à NVIDIA de « tasser » davantage de transistors comme le rappelle notre intertitre : l’AD102 agrège la bagatelle de 76,3 milliards de transistors dans sa version complète alors que le GA102 de l’architecture Ampere se contentait de 28,3 milliards !

NVIDIA GeForce RTX 4090 FE © NVIDIA
Le GPU AD102 dans toute sa superbe © NVIDIA

Nous aimons autant que vous les comparaisons alors continuons. Toujours dans sa version complète, l’AD102 totalise 18 432 cœurs CUDA contre seulement 10 752 sur le GA102. Il est aussi question de 144 streaming multiprocessors contre 84, de 144 cœurs RT contre 84 et de 576 cœurs Tensor contre 336. Si la capacité, l’interface et la fréquence mémoire sont identiques (24 Go, 384-bit, GDDR6X), le GPU profite d’une fréquence de boost largement améliorée, 2,5 GHz contre 1,9 GHz.

Specs NVIDIA GeForce RTX 4090 FE © NVIDIA
Fiches techniques comparées des RTX 3090 Ti et RTX 4090 © NVIDIA

3e gen de cœurs RT, 4e gen de cœurs Tensor

Depuis tout à l’heure, nous parlons de « version complète » du GPU AD102 car sur la GeForce RTX 4090, NVIDIA a opté pour une mouture légèrement amoindrie. Sans doute une façon de se laisser une marge de manœuvre pour une future RTX 4090 Ti. Toujours est-il que la RTX 4090 se limite à 16 384 cœurs CUDA, 128 cœurs RT et 512 cœurs Tensor. Côté fréquence GPU ou mémoire vidéo en revanche, rien ne change.

NVIDIA GeForce RTX 4090 FE © NVIDIA
NVIDIA a réduit les besoins en stockage des cœurs Tensor © NVIDIA

Comme vous pouvez en juger sur le tableau un peu plus haut, même avec un GPU amoindri, la GeForce RTX 4090 dispose d’une fiche technique largement supérieure à celle de la GeForce RTX 3090 Ti, pourtant déjà une belle bête. Au-delà des chiffres, NVIDIA tient toutefois à transmettre un message : toutes les technologies mises en œuvre ont évolué. Il est maintenant question de cœurs RT de 3e génération et même de 4e génération pour les cœurs Tensor.

Les cœurs Tensor sont des spécialistes de l’intelligence artificielle (IA) et du « calcul haute performance » (HPC). NVIDIA insiste sur l’introduction d’un nouveau format de données (FP8) qui vient « réduire de moitié les besoins en stockage tout en doublant les performances d’IA ». Avec une puissance de traitement de 1,3 PetaFLOPS, cette 4e génération permet à la RTX 4090 de doubler celle des cœurs Tensor de la RTX 3090 Ti.

NVIDIA GeForce RTX 4090 FE © NVIDIA
Le traitement ray tracing profite nettement des nouveaux cœurs RT © NVIDIA

Comme leur nom l'indique, les cœurs RT sont conçus pour accélérer le traitement du rendu ray tracing. Sur sa 3e génération de cœurs, NVIDIA introduit deux nouveautés essentielles, les moteurs Box Intersection et Triangle Intersection : leur objectif est l'augmentation du niveau de détails en doublant le débit d'intersections rayon-triangle. Par ailleurs, le moteur Opacity Micromap rend plus rapide la création d'objets translucides tandis que le Displaced Micro-Mesh dope la création de volumes complexes. L'un dans l'autre, NVIDIA annonce un traitement ray tracing 2,8x plus efficace sur Lovelace par rapport à Ampere.

Optimisation des shaders

Parallèlement à cette remise à niveau des cœurs RT et Tensor, NVIDIA a largement augmenté le nombre de multiprocesseurs de streaming (SM). On parle de 128 unités contre 84 sur la RTX 3090 Ti. Non content d’être plus nombreux, ces SM sont déchargés d’une partie de leur travail par les cœurs RT. Ils peuvent dès lors déployer toute leur puissance : NVIDIA évoque 83 shader-TFLOPS, deux fois plus que ce qu’offrait Ampere.

NVIDIA GeForce RTX 4090 FE © NVIDIA
En bas, le SER vient trier dynamiquement les données © NVIDIA

Pour ne rien gâcher, une nouvelle technologie a été mise en place, le Shader Execution Reordering (SER). Il s'agit de réorganiser à la volée les tâches de gestion des shaders. Les SM ne sont plus contraints d’attendre les bonnes données pour avancer, elles sont dynamiquement réorganisées afin d’améliorer l’efficacité de toute la procédure de shading. NVIDIA parle de performances en hausse de 44% sur Cyberpunk 2077.

DLSS 3 : une percée « révolutionnaire » ?

Multiprocesseurs de streaming, cœurs RT et cœurs Tensor sont les trois composantes essentielles de l’architecture Lovelace laquelle est entièrement tournée vers le DLSS 3. NVIDIA ne mâche pas ses mots pour évoquer la troisième version de sa technique de super-échantillonnage qu’il juge tout bonnement « révolutionnaire ». Pour justifier ce superlatif, le fabricant évoque un « rendu neuronal » qui se base tout d’abord sur les progrès du DLSS 2.

NVIDIA GeForce RTX 4090 FE © NVIDIA
NVIDIA GeForce RTX 4090 FE © NVIDIA

Fonctionnements comparés de DLSS 2 et DLSS 3 © NVIDIA

Sur le principe, on part donc toujours d’une image rendue en 1 080p par exemple, et de vecteurs de mouvement pour en travailler l’échantillonnage dans une définition plus élevée. Toutefois, le DLSS 3 ne se contente pas de cette étape et NVIDIA introduit ce qu’il nomme l’Optical Flow Accelerator. Ce dernier analyse deux images séquentielles du jeu et en tire un « champ de flux optique » qui permet de prendre des informations sur la direction et la vitesse des pixels.

NVIDIA GeForce RTX 4090 FE © NVIDIA
Résumé de toutes les caractéristiques du DLSS 3 © NVIDIA

Au travers de ces deux images retenues, l’accélérateur de flux optique analyse les particules, les ombres, les reflets et les éclairages. Le DLSS 3 ajoute une analyse des vecteurs de mouvement dans le but de suivre les « déplacements géométriques » dans la scène et combine ces multiples informations. Pour chaque pixel, le moteur de génération des images de DLSS 3 est alors capable de décider comment utiliser ces éléments pour créer des images intermédiaires, les imaginer avant même leur rendu.

Sachez qu'à la sortie de la GeForce RTX 4090 – le 12 octobre – il est prévu que plus de 35 jeux et outils soient compatibles avec le DLSS 3 parmi lesquels A Plague Tale: Requiem, Cyberpunk 2077, F1 22, Hitman 3, Microsoft Flight Simulator, Portal with RTX, S.T.A.L.K.E.R. 2: Heart of Chernobyl, The Lord of the Rings: Gollum, The Witcher 3: Wild Hunt, Warhammer 40,000: Darktide

NVIDIA 35 jeux et outils DLSS 3 © NVIDIA
Les plus de 35 jeux et outils DLSS 3 prêts au 12 octobre © NVIDIA

Prendre le bon Reflex

En utilisant aussi bien les vecteurs de mouvement du moteur graphique déjà exploités par DLSS 2 et en y ajoutant le flux optique pour suivre le mouvement, DLSS 3 est capable de reconstruire avec précision à la fois la géométrie et les effets graphiques. Ce processus est géré par ce que NVIDIA baptisé le DLSS Frame Generation. Problème, l’opération ne se fait pas en claquant des doigts et elle entraîne nécessairement une certaine latence. C’est là que Reflex entre en jeu.

NVIDIA Reflex © NVIDIA
La « latence système » dans le détail : Reflex réduit la render queue © NVIDIA

Déjà présenté par NVIDIA dans le cadre du développement de l’eSport. Reflex s’offre ici un nouveau débouché. Il n’est plus nécessairement question de se plier aux besoins des amateurs de jeux compétitifs, mais plutôt de compenser la latence induite par DLSS 3. De fait, Reflex est partie intégrante de DLSS 3 : en synchronisant le travail du CPU et du GPU, Reflex s’assure qu’aucun de deux ne prenne l’ascendant sur l’autre, réduit la latence et rend l’ensemble plus réactif.

Duo d’encodeurs AV1

Sans doute plus anecdotique pour de nombreux lecteurs, mais pas pour les futurs acheteurs de la gamme RTX 4000, l’architecture Lovelace assure, de manière matérielle, l’encodage AV1. Celui-ci vient bien sûr en plus des H.264/H.265 des RTX 3000, mais se montre plus efficace : au choix, on peut conserver le bitrate pour améliorer la qualité d'encodage ou opter pour un bitrate plus faible tout en gardant une image identique. Ce second cas permet alors de réduire nettement la taille des vidéos.

NVIDIA GeForce RTX 4090 FE © NVIDIA
Aperçu des performances du double encodeur AV1 de la RTX 4090 © NVIDIA

NVIDIA estime que l’encodeur AV1 de Lovelace est 40 % plus efficace que l’encodeur H.264 d’Ampere et précise que les GPU RTX 4000 n’intègrent plus un, mais deux moteurs d’encodage. Le but est de les faire travailler en parallèle : Lovelace est à même de scinder les images en moitiés qu’il envoie simultanément aux encodeurs pour, ensuite, recomposer une scène unique à expédier pour finaliser la vidéo. L’encodage est ainsi deux fois plus rapide que sur un GPU RTX 3000.

NVIDIA GeForce RTX 4090 FE © NVIDIA
NVIDIA GeForce RTX 4090 FE © NVIDIA

La RTX 4090 FE à côté de la RTX 3080 Ti FE © Nerces

RTX 4090 : la Founders Edition dans le détail

Vous n’êtes pas sans savoir que NVIDIA compte sur de nombreux partenaires pour produire des cartes graphiques RTX 4090 en plus du modèle Founders Edition que nous testons. Ces modèles « partenaires » présentent un design nettement différent et souvent plus volumineux que la carte NVIDIA avec une triple ventilation qui doit permettre de pousser un peu les fréquences de fonctionnement du GPU.

NVIDIA et Gamers Nexus détaillent le refroidisseur de la RTX 4090… avec violence !

Dans le cas de la Founders Edition, on se trouve en présence d’un design très proche de celui des GeForce RTX 3090 FE et RTX 3090 Ti FE. Un carénage au style très épuré vient masquer l’imposant dissipateur, lequel est conçu autour d’un assemblage de caloducs et d’une chambre de vapeur. Ces deux éléments viennent « extraire » la chaleur émise par le GPU pour la conduire vers les multiples ailettes du bloc de dissipation. Ensuite, des ventilateurs se chargent de l’expulser comme nous vous l'avions expliqué lorsque nous avons fait l'unboxing de la carte.

NVIDIA GeForce RTX 4090 FE © NVIDIA
NVIDIA GeForce RTX 4090 FE © NVIDIA
NVIDIA GeForce RTX 4090 FE © NVIDIA
NVIDIA GeForce RTX 4090 FE © NVIDIA
NVIDIA GeForce RTX 4090 FE © NVIDIA
NVIDIA GeForce RTX 4090 FE © NVIDIA

Notre GeForce RTX 4090 Founders Edition sous toutes les coutures © Nerces

NVIDIA souligne que malgré la proximité apparente du design, son dissipateur a été retravaillé afin d’accentuer son efficacité. Il précise surtout que de nouveaux ventilateurs ont été mis en place : plus grands, exploitant des roulements dits « fluid dynamic » et placés en rotation inversée, ils doivent produire un flux plus important tout en réduisant les nuisances sonores. Pour le même niveau de bruit, NVIDIA évoque un flux 15% plus efficace.

NVIDIA GeForce RTX 4090 FE © Nerces
HWInfo est le premier logiciel à faire le point sur notre carte © Nerces

Protocole de test

Afin de faire honneur aux cartes graphiques de nouvelle génération, nous avons largement revu notre protocole de test. Bien sûr, la base reste la même en ce sens qu’il ne nous semblait pas utile de refondre la configuration mise en place.

NVIDIA GeForce RTX 4090 FE © Nerces
NVIDIA GeForce RTX 4090 FE © Nerces
NVIDIA GeForce RTX 4090 FE © Nerces
NVIDIA GeForce RTX 4090 FE © Nerces

Nous enchaînons ensuite avec les multiples onglets de CPU-Z © Nerces

Configuration de test

  • Carte mère : ASUS ROG Maximus Z690 Hero
  • Processeur : Intel Core i9-12900K
  • Mémoire : Kingston Fury DDR5-4800 CL38 (2x 16 Go)
  • SSD « système » : Kingston KC3000 2 To
  • Refroidissement : ASUS ROG Ryujin II 360
  • Alimentation : be quiet! Straight Power 11
NVIDIA GeForce RTX 4090 FE © Nerces
Avant de conclure cet état des lieux avec GPU-Z © Nerces

Les logiciels mis en œuvre ont évolué. Nous sommes sur Windows 11 en version Professionnel 64-bit 22H2 22621.607. NVIDIA nous a fourni la dernière mouture de ses pilotes (521.90) afin que la RTX 4090 FE soit reconnue et notre plateforme Z690 exploitait les pilotes chipset Intel 10.1.18838.8284. Pour la Radeon RX 6900XT, ce sont les pilotes AMD 22.20.29.01 RC6 qui ont été employés.

NVIDIA GeForce RTX 4090 FE © Nerces
NVIDIA GeForce RTX 4090 FE © Nerces

Tout est en place, même l'adaptateur et les câbles 8 broches ! © Nerces

Qu’en est-il des performances ?

Inutile de vous faire un dessin, la GeForce RTX 4090 est une carte puissante, très puissante même, qu’il n’est pas utile de comparer à une GTX 1650 par exemple. Nous avons décidé de réduire considérablement les graphiques et de ne comparer notre cobaye du jour qu’aux GeForce RTX 3080 Ti, RTX 3090 et Radeon RX 6900XT.

3DMark

NVIDIA GeForce RTX 4090 FE © Nerces
Performances observées sur 3DMark © Nerces

Utilisé depuis la nuit des temps, 3DMark est un outil pratique pour évaluer rapidement une configuration. Il ne saurait toutefois se substituer à des tests « réels », ce n’est qu’un indicateur. De manière générale, les Radeon RX se comportent bien avec ce soft, mais la RTX 4090 est intouchable.

Les écarts sont stupéfiants et sur TimeSpy Extreme, la RTX 4090 vient plus que doubler les résultats de la RTX 3090. En toute logique, une RTX 3090 Ti – que nous n’avions pas sous la main – aurait permis à Ampere de limiter les dégâts, mais pas de modifier l’impression de facilité qui émane de la RTX 4090 laquelle domine de la même manière sur la scène Port Royal favorisant le ray tracing.

Blender Benchmark

NVIDIA GeForce RTX 4090 FE © Nerces
Performances observées sur Blender Benchmark © Nerces

Alors que nous sommes en pleine refonte de notre protocole de test, nous avons décidé d’intégrer un outil plus « professionnel » afin de rendre compte d’un usage moins ludique. Par son moteur de rendu 3D, Blender Benchmark met davantage à contribution les GPU puissants et exploite pleinement les 24 Go de GDDR6X de la RTX 4090.

De manière encore plus nette que sur 3DMark, la petite dernière de NVIDIA s’assure une première place méritée. Aucune contestation n’est possible et si les Radeon RX 6000 ne brillent pas sur cet exercice, même les plus puissantes cartes Ampere sont largement distancées : on parle tout de même de doubler les performances d’une RTX 3080 Ti.

Cyberpunk 2077

NVIDIA GeForce RTX 4090 FE © Nerces
Performances observées sur Cyberpunk 2077 © Nerces

S'il est toujours difficile de parler de « plus beau jeu du monde », il est certain que Cyberpunk 2077 est une merveilleuse vitrine technologique du monde PC. Pourtant, notre premier test ne cherche pas à mettre genoux les cartes graphiques en se focalisant sur le seul rendu « ultra ». La RTX 4090 s’impose tout de même largement, notamment en 4K où l'on note un progrès de plus de 50 % par rapport à la RTX 3090.

Cyberpunk 2077 et le ray tracing

NVIDIA GeForce RTX 4090 FE © Nerces
Performances observées sur Cyberpunk 2077 en mode ray tracing © Nerces

Afin d'enfoncer le clou et, surtout, de se tourner vers l’avenir, nous faisons un second test Cyberpunk 2077 en activant cette fois le ray tracing en mode « ultra ». Nous optons aussi pour le mode de super-échantillonnage le plus indiqué de chaque carte, en réglage « équilibré ». Une configuration qui sied à merveille à la RTX 4090.

Les valeurs en 1 080p et 1 440p n’ont pas grand intérêt, mais en 4K, la carte écrase la concurrence avec des performances en progrès d’environ 80 % sur les RTX 3080 Ti et RTX 3090. Ray tracing oblige, la Radeon RX 6900XT n’est pas à son aise et les progrès sont ici de 180 % en se tournant vers la carte Lovelace. Impressionnant.

Far Cry 6

NVIDIA GeForce RTX 4090 FE © Nerces
Performances observées sur Far Cry 6 © Nerces

Sur le jeu d’Ubisoft Montréal, la RTX 4090 est moins à son aise. D’emblée, on note qu’il n’est pas question de jouer en 1 080p ou en 1 440p sur une telle carte : elle ne fait pas réellement mieux que les RTX 3080 Ti / RTX 3090, elle est comme on dit dans le jargon CPU bound, limitée par le CPU.

En 4K, elle l’emporte sans difficulté sur toutes ses concurrentes, mais les écarts sont moins nets que sur Cyberpunk 2077. Par rapport à la RTX 3080 Ti, sa poursuivante la plus performante, la RTX 4090 assure des progrès d’exactement 40 % sur Far Cry 6 avec le ray tracing activé.

Forza Horizon 5

NVIDIA GeForce RTX 4090 FE © Nerces
Performances observées sur Forza Horizon 5 © Nerces

Sur notre nouveau protocole, la course automobile est représentée par le magnifique Forza Horizon 5 qui ne souffre que d’un défaut : la prise en charge du ray tracing se limite au seul garage. En jeu, les écarts sont malgré tout très importants et la dauphine de notre cobaye du jour est de nouveau la RTX 3080 Ti, laquelle ne peut toutefois rien faire et le gain est cette fois de presque 64 %.

Marvel’s Guardians of the Galaxy

NVIDIA GeForce RTX 4090 FE © Nerces
Performances observées sur Marvel's Guardians of the Galaxy © Nerces

Encore un peu moins d’écarts avec Marvel’s Guardians of the Galaxy qui permet à la RTX 3090 de mieux figurer. Option ray tracing activée et super-échantillonnage sur équilibré, la carte Ampere signe 99 images par seconde : la RTX 4090 ne fait « que » 46 % de mieux pour atteindre un flatteur 144 ips.

Red Dead Redemption 2

NVIDIA GeForce RTX 4090 FE © Nerces
Performances observées sur Red Dead Redemption 2 © Nerces

Les années passent et le jeu de Rockstar Games reste une merveille graphique qui nous permet, en plus, d’ajouter un jeu Vulkan à notre sélection. Une fois encore, nous nous focalisons sur le jeu en 4K avec les détails en ultra et, une fois encore, la RTX 4090 écrase la concurrence.

Par rapport à la Radeon RX 6900XT d’AMD (67 ips), la carte NVIDIA signe des performances 90 % plus élevées. Notre duo de RTX 3080 Ti/RTX 3090 fait un peu mieux bien sûr. Pourtant, la RTX 4090 fait encore 67 % de mieux pour assurer une moyenne de 127 images par seconde.

Total War Warhammer 3

NVIDIA GeForce RTX 4090 FE © Nerces
Performances observées sur Total War Warhammer 3 © Nerces

Le dernier jeu de notre sélection n’est autre que le Total War Warhammer 3 de The Creative Assembly. Plusieurs scènes étant disponibles, nous avons retenu celle du champ de bataille, théâtre de nouveaux exploits pour la RTX 4090.

Notons qu’il s’agit du seul jeu de notre sélection où les cartes graphiques ne sont pas limitées par le processeur et, même en 1 080p, la hiérarchie s’installe aisément avec une RTX 4090 supérieure de 53 % à sa dauphine, la RTX 3080 Ti.

Logiquement, le classement reste le même en 4K avec une RTX 3090 en troisième position, une RTX 3080 TI sur la seconde marche du podium et une RTX 4090 qui caracole en tête assurant des performances 68 % supérieures à celles de sa poursuivante.

Coup de projecteur sur DLSS3 / Reflex

Soucieux de mettre en avant certaines de ses nouveautés technologiques, NVIDIA a conçu des outils qui, il faut le reconnaître, simplifient grandement notre travail de testeur.

  • Grâce à FrameView, il est simple de mesurer la moyenne du nombre d’images par seconde, mais également des pires 1 % ou du temps de latence de la machine.
  • De son côté, ICAT simplifie la juxtaposition de deux vidéos afin de comparer le niveau de détail ou, dans le cas présent, le résultat du traitement DLSS.

Notez bien que sur les graphiques ci-dessous, la notion de latence (exprimée en millisecondes, ms) doit être lue « à l'envers » : plus le score est faible, plus le PC est réactif et plus le jeu est agréable.

A Plague Tale: Requiem

NVIDIA GeForce RTX 4090 FE © Nerces
Performances observées sur A Plague Tale: Requiem © Nerces

Sur le jeu d’Asobo Studios, on note le boost de performances offert par l'activation du DLSS 3. Au-delà de la seule moyenne du nombre d’images par seconde, c’est d’ailleurs le 1 % faible qui impressionne.

Rappelons qu’il s’agit de nous dire que sur les 1 % du temps où la fluidité est la plus mauvaise, A Plague Tale: Requiem tourne encore à 149 images par seconde grâce au DLSS 3 alors qu’en DLSS 2, il faut se contenter de 85 ips, en 4K. Notons que DLSS 2 a toutefois pour lui une meilleure latence et que Reflex ne suffit pas à ramener le DLSS 3 au même niveau.

NVIDIA GeForce RTX 4090 FE
À gauche en natif 4K et à droite en DLSS 3 © Nerces
NVIDIA GeForce RTX 4090 FE
Zoom 400% : à gauche en natif 4K et à droite en DLSS 3 © Nerces

La chose est extrêmement subjective, mais afin que vous puissiez vous faire une petite idée du rendu proposé par DLSS 3, nous avons mis côte-à-côte, deux images du jeu d’abord à 100 % puis à 400 % : sur la gauche, vous avez le rendu en mode natif 4K et, à droite, la version DLSS 3 calée sur le réglage équilibré.

F1 22

NVIDIA GeForce RTX 4090 FE © Nerces
Performances observées sur F1 22 © Nerces

Sans doute quelques optimisations sont encore à réaliser sur A Plague Tale: Requiem car F1 22 est plus en phase avec les ambitions de NVIDIA. D’abord, le DLSS 3 assure une fois encore une fluidité exemplaire même en 4K et même en considérant le 1 % faible.

Mais là où les choses deviennent très intéressantes c’est que ce gain de fluidité ne se fait pas au détriment de la réactivité. Le frame generator du DLSS 3 entraîne bien un accroissement de la latence, mais il est presque entièrement compensé par Reflex : on est à 28 ms quand on poussait à 27 ms sur DLSS 2, autant dire la même chose.

NVIDIA GeForce RTX 4090 FE
À gauche en natif 4K et à droite en DLSS 3 © Nerces
NVIDIA GeForce RTX 4090 FE
Zoom 300% : à gauche en natif 4K et à droite en DLSS 3 © Nerces

Comme pour A Plague : Requiem, nous vous offrons maintenant la possibilité de comparer le rendu visuel de DLSS 3 à la version 4K native d’abord en 100 % puis en 300 % : sur la droite, le super-échantillonnage de NVIDIA est à l’œuvre alors qu’à gauche, nous sommes en natif…

Cyberpunk 2077

NVIDIA GeForce RTX 4090 FE © Nerces
Performances observées sur Cyberpunk 2077 © Nerces

Enfin, pour obtenir un tableau encore un peu plus complet de la situation, nous revenons vers l’inévitable Cyberpunk 2077. Comme les précédents titres, il est parmi les premiers à prendre en charge le DLSS 3, mais nous avons pu ici davantage jouer avec les réglages.

Sans surprise, le DLSS 3 permet d’atteindre les plus hauts niveaux de fluidité et, grâce à Reflex, il peut le faire sans ajouter de latence au réglage DLSS 2 seul. En revanche, Reflex peut aussi être activé sur DLSS 2 et l'on voit alors que la « vieille » solution l’emporte côté réactivité.

NVIDIA ne s’en cache pas : DLSS 3 n’a pas vocation à faire disparaître DLSS 2. Il s’agit d’une solution complémentaire qui arrive pour améliorer le rendu graphique. Dès lors que l’on parle de jeux ultra-compétitifs, la légère latence induite incitera les joueurs à garder DLSS 2.

NVIDIA GeForce RTX 4090 FE
À gauche en natif 4K et à droite en DLSS 3 © Nerces
NVIDIA GeForce RTX 4090 FE
Zoom 200% : à gauche en natif 4K et à droite en DLSS 3 © Nerces

Nous terminons par le face-à-face que vous avez déjà pu découvrir sur les deux précédents jeux. Cyberpunk 2077 en mode DLSS 3 est sur la droite alors que la version 4K native est sur la gauche. Nous vous proposons d’abord une image en 100 % puis en 200 %.

De l’efficacité d’Ada : à cheval sur la conso ?

Nous avons peu évoqué la chose, mais en optant pour le processus 4N (ou 5 nanomètres) de TSMC, NVIDIA insiste autant sur la densité de transistors que sur la remarquable efficacité énergétique. Sans trop entrer dans les détails, NVIDIA précise qu’il est peut délivrer « les plus hauts niveaux de performance par watt ». Voyons cela.

Consommation électrique

NVIDIA GeForce RTX 4090 FE © Nerces

Sur le strict plan de la consommation électrique, le GPU AD102-300 de la RTX 4090 est évidemment gourmand : il s'agit d'une vitrine technologie pour NVIDIA et ses 433 watts enregistrés au plus fort d'une session de TimeSpy Extreme sur 3DMark n'ont rien d'anormal.

Tentons de rassurer les usagers : sur aucun jeu, sur aucune définition d'images et à aucun niveau de détail, nous n'avons atteint les 400 watts. Dans l'immense majorité des situations ou des logiciels, la moyenne haute s'établit plutôt autour des 370 watts. La RTX 4090 est gourmande, ce n'est pas une surprise. En revanche, cela dépend des usages et il convient tout de même d'insister sur le fait que le jeu vidéo n'est évidemment pas la vocation première d'une telle carte.

C’est aussi la plus puissante, donc – en dehors de toute considération écologique – cette poussée n’a rien de surprenant. Notons en revanche qu’au repos la carte est plus sobre et que, comme toutes les RTX 3000, elle a l’avantage de couper sa ventilation quand elle le peut.

Efficacité et « rentabilité »

NVIDIA GeForce RTX 4090 FE © Nerces

Exprimé en euros, le prix public conseillé (MSRP) est représenté sur le graphique ci-dessus par les barres bleues. La valeur chiffrée est précisée à côté de chaque carte.

Entre les sorties des RTX 3000 et 4000, le taux de change euro/dollar a fortement changé affaiblissant le ratio performances/prix de la RTX 4090. En dollars, ce ratio est à 12,2 contre 12,9 pour la RTX 3080.

Au-delà de sa consommation, il nous semblait utile d’évoquer deux indicateurs de l’efficacité de la carte : les performances par Watt et les performances par Euro en prenant à chaque fois le résultat 3DMark TimeSpy Extreme. D’abord en le divisant par la consommation enregistrée et, ensuite, en le divisant par le MSRP au lancement de la carte.

Sur le plan énergétique, il est réconfortant de voir que NVIDIA ne pense pas qu’aux performances : sa RTX 4090 est loin devant les autres cartes graphiques haut de gamme testées sur Clubic et nous sommes impatients d'observer ce que cela peut donner sur des modèles plus modestes.

Du côté des performances par Euro, la RTX 4090 est moins à son aise et se fait damer le pion par la RTX 3080 confirmant l’exceptionnel rapport qualité/prix de la pionnière de la gamme Ampere. Handicapé par la conversion Euro/Dollar défavorable, Lovelace n’a toutefois pas à rougir et, là encore, nous attendons la suite.

NVIDIA GeForce RTX 4090 FE © NVIDIA
Une carte graphique remarquablement puissante... presque trop ? © Nerces

NVIDIA GeForce RTX 4090 FE, l’avis de Clubic

9

Est-ce l’arrivée d’Intel sur ce marché si concurrentiel ou les sorties successives des solutions RDNA d’AMD qui incitent NVIDIA à ainsi repousser les limites ? Sans doute un peu des deux, sûrement aussi que les ingénieurs de la société ont nombre de bonnes idées pour améliorer leurs architectures. Pourtant, alors que les CPU ne progressent plus massivement, les GPU semblent avoir de la réserve.

Il paraît clair que l’architecture Lovelace est promise à un brillant avenir tant les améliorations observées sont décisives, à commencer bien sûr, par le DLSS 3. NVIDIA ayant une fois encore opté pour une solution propriétaire, il aura cependant besoin d’en assurer le suivi auprès des développeurs, lesquels seront peut-être tentés par les appels d’AMD ou Intel avec des solutions certes moins évoluées – nettement moins même – mais également bien plus ouvertes.

Lovelace apparaît comme l’architecture la plus puissante, et par ailleurs la plus efficace. Alors que la sobriété énergétique est sur toutes les lèvres, c’est de bon augure pour les autres déclinaisons de Lovelace. Monstre de puissance, elle est surdimensionnée pour le seul usage vidéoludique à moins d'envisager le jeu en 8K. En revanche, sa réserve de puissance, sa quantité de mémoire et son environnement logiciel en font un outil semi-professionnel remarquable.

Les plus

  • Performances affolantes !
  • DLSS 3 très convaincant
  • Ventilation plutôt discrète
  • Échauffement contenu
  • Design encore très réussi
  • Connecteur 12VHPWR

Les moins

  • Est-ce bien raisonnable ?
  • Pas de sortie USB-C
  • Prix et taille, forcément
Cet article contient des liens d'affiliation, ce qui signifie qu'une commission peut être reversée à Clubic. Les prix mentionnés sont susceptibles d'évoluer. 
Lire la charte de confiance
Soyez toujours courtois dans vos commentaires.
Respectez le réglement de la communauté.
100
44
Popoulo
Merci pour le test.<br /> Effectivement, en perfs brutes, y a un sacré cassage de pattes arrières quand on regarde le graphique de 3DMark.<br /> Pensez-vous faire quelques tests supplémentaires avec des applis pros 3D et video ?
fredolabecane
Celle-là elle enterre tout le monde ni plus ni moins.
kyosho62
Au final elle consomme moins que la 3090Ti
moa
Oui, je m’attendais à bien plus que ça en consommation… sobre qui plus est au repos ^^
Popoulo
Etonné aussi par la consommation. M’attendais à largement plus.<br /> La version Ti devrait remédier à cela.
Ccts
La question c’est le prix de la 3090… est ce que ça va baisser le temps de vider le stock. Parce que Amazon nous fait croire qu’on fait une affaire avec des -60 % sur le prime day mais vu l’âge de la carte c’est pas vraiment intéressant par rapport à une 4080…
SplendoRage
Je trouve que cette génération Lovelace, si on s’en tient au ratio « transistors / gain » par rapport à Ampere est au final totalement désastreuse, on va pas se mentir.<br /> Je rappelle que Ampere, en version « Full » c’est 23,8 millions de transistors. Là, avec Lovelace, on passe à plus de 76,3 millions de transistors pour un gain de perf au final, qui n’est pas si outrageant que ça …<br /> L’optimisation architecturale de Lovelace est catastrophique puisqu’en susse, il a été nécessaire à Nvidia d’augmenter ENCORE les fréquences … Donc, on a d’un côté 3,2x plus de transistor d’une génération à l’autre, avec une augmentation de fréquence conséquente, et de l’autre, un ratio perf qui n’égale pas un ratio de 1/1 par rapport à Ampere …<br /> C’est au final, très très très décevant … Surtout au vu du prix pratiqué … Cette architecture Lovelace est un échec … Et personnellement, elle me fait penser à l’architecture Rankine des Geforce 5 puisque son nombre de transistors était plus élevé que sur Kelvin (Geforce 4) avec des fréquences égales ou inférieures ce qui a conduit à des perfs désastreuses.<br /> Là, les perfs ne justifient pas les 76,3 milllions de transistors, soit plus de 48 millions de transistors supplémentaires par rapport à Ampere …
Stakh
Presque 2000€, whaow.
Popoulo
Un échec qui finira dans ma toute prochaine tour (selon les resultats en GPU Rend/Video).<br /> Les échecs comme ça, j’en redemande <br /> Plus qu’à attendre le 13900K pour voir si c’est aussi un échec de manière à accompagner cette petite carte graphique sinon ça sera un petit 7950X.
SplendoRage
Bah … Y’a ceux qui veulent les dernières évo à des prix dénués de bon sens, et en dehors de toutes logiques. Et il y a les autres … Qui réfléchissent …<br /> Moi je réfléchis … °.°<br /> Et je vais pas claquer 2000 balles pour un GPU dont l’efficiency est tout bonnement lamentable … Alors que Hopper est à contrario, une réussite à ce niveau là par rapport à Volta
MattS32
Le fait que les performances ne soient pas proportionnelles on nombre de transistors n’indique pas forcément un manque d’optimisation.<br /> Simplement que selon l’endroit où ces transistors supplémentaires sont « dépensés », les gains qu’ils apportent en sont pas les mêmes (et idem pour le coût qu’ils induisent).<br /> En l’occurrence ici il suffit de lire la fiche technique pour voir que le nombre d’unités de traitement a nettement moins que doublé, mais que par contre le cache a été augmenté massivement. C’est donc sans doute sur ce cache qu’a été dépensé une partie importante du « budget » transistors.<br /> Forcément, ça fait moins gagner en performances que des unités de calcul en plus. Mais ça peut permettre des gains énormes dans certains cas particulier. Et c’est beaucoup moins coûteux (aussi bien en coût de conception qu’en coût de fabrication et en coût d’utilisation) que de multiplier les unités de calcul ou d’augmenter les performances de ces unités.<br /> C’est comme si tu disais par exemple que l’optimisation de l’architecture d’un 5800X3D est catastrophique parce qu’il a plus de deux fois plus de transistors pour à peine 10% de performances en plus…
bennj
Attention on va surement te sortir l’argument que t’es juste jaloux car tu n’as pas les moyens. Passer de 1500 à 2000 € c’est complétement abusé. C’était déjà le cas des 1500 € pour la 3090… Mais là ils ont complètement fumé avec leur 4080 à 1500 € alors que la 3080 était à 750 € de base.<br /> Perso je vais clairement attention la réponse de AMD pour voir si ses derniers se réveillent enfin en perf RT.
MattS32
SplendoRage:<br /> Et je vais pas claquer 2000 balles pour un GPU dont l’efficiency est tout bonnement lamentable<br /> Euh… L’« efficiency », elle est augmentée de 50% par rapport à la 6900XT, 60% par rapport à la 3090… C’est tout simplement le GPU PC qui a le meilleur rapport performances/W à ce jour. Et tu appelles ça lamentable ? <br /> On peut discuter du prix, de la consommation électrique dans l’absolu… Mais sur le plan de l’efficacité, y a vraiment rien qui puisse lui être reproché…<br /> Les gains d’efficacité entre 2080 et 3080 ont été quasiment deux fois plus faibles, à peine plus de 35% : Test NVIDIA GeForce RTX 3080 : Ampere frappe fort
SplendoRage
Sauf que les prix ne sont pas les mêmes. Le MSRP de la 6900XT était de 900$ il y a encore 2 semaines, prix qui a été baissé de plus 20% par AMD, et il reste RDNA3 qui va être annoncé d’ici la fin du mois.<br /> Nvidia a décidé de rester sur une architecture monolitique pour Lovelace, c’était probablement pas la meilleure carte à jouer en sachant que Hopper à une architecture MCM, et que ça sera le cas pour la prochaine gen Geforce chez Nvidia.<br /> Je m’attendais à avoir des étoiles dans les yeux … Bon … Alors soit je me fais vieille, soit il faut se rendre à l’évidence que Nvidia n’arrivera pas à reproduire ce qui avait été fait avec Pascal …
batmat
Merci pour ce test intéressant! Compte tenu des performances de la carte, il aurait pu être intéressant de faire des tests en configuration triple screen ou la résolution finale dépasse le 4K, une configuration qui n’est plus si rare de nos jours
SplendoRage
Ah mais pour moi, l’exemple du 5800XD est très bon ! Pour avoir benché moi même avec ma 3080Ti un 5800X3D et un 5800X, le gain est même en dessous de 10%, mais pire encore, j’ai notifié une augmentation de température ainsi que des problèmes de performances dans certains jeux très CPU dependant (avec une grosse chute de framerate, notamment sur Anno 1800 et RDR2, là où le 5800X n’a pas ce problème).<br /> Et même l’augmentation de cache sur l’architecture Lovelace ne peut pas justifier plus de 300% de transistors en plus rapport à Ampere … ! On parle de 48 millions de transistors en plus … Alors soit c’est dû à des drivers trop « frais », soit ils sont totalement à la ramasse.<br /> Et le prix … Ce n’est autre que le prix des cartes Ampere pendant la « pénurie » pour justifier la cohabitation des RTX 3000 avec les RTX 4000. Le but premier de Nvidia, c’est de vendre les cartes Lovelace en dehors de toutes logiques commerciales pour « forcer » ceux qui attendaient à prendre une Ampere ! Ni plus ni moins …<br /> Maintenant, au vu de gain de perf, tu prend une 4090, tu abaisses sa fréquence boost à … Aller … 1,9Ghz, tu vas arriver aux perfs d’une 3090 à peu de choses prêt … Si Nvidia est obligé de monter à plus de 2.5Ghz pour démontrer « hey regardez ! Notre 4090 fait mieux qu’une 3090Ti !! » Aaah bah … Oui … Forcément …
sylvebarbe78
Idem pour moi ! Je suis sur les starting-block
Funkee
Malheureusement, nous ne disposons pas de moniteur avec une résolution supérieure au 2160p. Mais, on pourrait effectivement utiliser le DSR pour « émuler » la 8K et mesurer les perfs. On va y réfléchir ! Sinon LG si tu nous lis, on veut bien une TV 8K pour proposer les meilleurs tests à nos lectrices et nos lecteurs
batmat
un triple 2160p fera l’affaire
Feladan
Quel est le rapport avec la réflexion ? Tu cherches juste des choses différentes des autres.<br /> Pas besoin de ramener ça à « toi tu réfléchis et les autres non ». C’est assez glissant comme genre de phrase, car tu montre juste que tu juges les critères des autres ^^<br /> Dans tous les cas, pour l’instant il est illogique de taxer « d’échec » quelque chose qui vient de sortir. Seul le marcher dira si ça en est un ou non.
manu_XP
Vu sa consommation, interdite par le gouvernement.
SplendoRage
Je ne parle pas d’echec commercial, je parle d’echec architectural. Elle est là la différence.<br /> Un exemple …<br /> La 1080Ti, c’est une fréquence boost comprise entre 1550 et 1700Mhz pour la FE.<br /> La 3080 se targue d’une fréquence boost « officielle » de 1665Mhz pourtant, le gain entre les 2 architecture est RÉELLE à fréquence EGALE ! Là, je dis « OUI !!! » tout de suite, il n’y a pas à tergiversée (puisqu’en plus, le prix MSRP était équivalent voir inférieur).<br /> Euuuh là par contre … Comment dire … L’enfumage est réel entre Ampere et Lovelace … On peut pas le nier. Il suffit juste d’être un brin objectif pour se rendre compte que l’efficacité de l’architecture de Lovelace, n’est pas là …
Popoulo
Je sais bien on en avait déjà discuté de tout cela et je comprends tout à fait ton point de vue.<br /> Mais vois-tu, dans l’optique de petites WS sympas (3D/Video) en remplacement de quadro qui m’ont assez déçues, qui côutent chères et sont moins performantes. En restant dans le domaine de la 3D, regarde le bench d’une RTX 8000 Quadro (à 7000 balles) vs une 3090. Sous Vray RTX, la 3090 est 3x plus rapide. Sous Optix (Blender), c’est une punition sans nom, même en SLI pour la Quadro. Octane, idem. Pour la video, c’est moins flagrant. DaVinci, 49% plus rapide avec une 3090 et sous le veaux de Premiere, la 3090 est à peine 10% plus véloce.<br /> La Quadro reprend le dessus avec des softs comme Catia, Creo, Energy et tout ce qui touche aux softs scientifiques (que je n’utilise pas). Pour le prix d’une quadro, j’équipe 3 stations d’une 4090.<br /> Même si je vais attendre les tests 3D/Video, je doute qu’elle fasse moins bien qu’une 3090.<br /> Et concernant les jeux… m’en tamponne un peu avec des saucisses molles
Popoulo
En revanche, sa réserve de puissance, sa quantité de mémoire et son environnement logiciel en font un outil semi-professionnel remarquable.<br /> Cette conclusion de @Nerces est juste parfaite.
ABDev
Concernant les points négatifs dans la conclusion, quel est l’intérêt du port USB-C sur une carte graphique ?<br /> D’autant que j’ai beau faire un CTRL+F « USB » sur l’article, ça n’est mentionné nulle part ailleurs que dans la conclusion…<br /> Dans ce cas, on peut aussi indiquer en points négatifs le fait qu’il n’y ait pas de port Ethernet 10Gb ou de Wi-Fi 6.
Roche
D’après vos capture le resize bar est désactivé, du coup. Du coup possibilité de revoir encore les perf un peu à la hausse ?
soixante
Capture d’écran 2022-10-11 à 18.14.54692×389 391 KB<br /> Purée la différence entre natif 4K et DLSS 3 est ouf : y’a carrément un personnage en plus !
fox-idcom
A vérifier mais sur un autre site , il semble que le Resize bar était aussi désactivé donc à voir si ca vient pas tout simplement d’un problème de lecture du bios de la carte avec gpu-z ou autre outil , ou alors que ce n’est pas actif par défaut sur la 4090 mais ca serait étonnant quand même
Nerces
En sortie vidéo, ça peut être pratique. On ne va pas se mentir : c’était pour avoir quelque chose à dire, mais je trouve dommage de l’avoir retiré ce port USB-C d’autant qu’on trouve de plus en plus de CM qui en sont dotées pour gérer le DisplayPort.
sylvio50
MattS32:<br /> Euh… L’« efficiency », elle est augmentée de 50% par rapport à la 6900XT, 60% par rapport à la 3090… C’est tout simplement le GPU PC qui a le meilleur rapport performances/W à ce jour. Et tu appelles ça lamentable ? <br /> Oui, c’est parce qu’on peut considérer qu’il y a 2 types d’efficacité, une qu’on pourrait appeler extrinsèque (ou physique) et qui concerne TSMC ou le fondeur en générale et une deuxième qu’on pourrait appeler intrinsèque (ou logique) et qui concerne l’architecture et qui concerne Nvidia de sorte que l’on pourrait écrire :<br /> Augmentation efficacité globale = augm. efficacité « architectural » (Nvidia) x aug. efficacité « physique » (TSMC)<br /> L’efficacité par TSMC augmente de génération en génération tandis que c’est l’inverse coté Nvidia (ou AMD), elle diminue d’année en année.<br /> Si en passant de 55 nm à 28 nm, l’efficacité théorique par TSMC est multiplié par plus que 4 (loi de Moore en gros), en pratique, on ne les retrouvent pas sauf lorsque l’architecture ne change pas, justement.<br /> Ici, on aurait pu avoir à TDP constant et à surface de die constante, (2,52 GHz/1,86 GHz) x (76/26) = 4x d’augmentation en efficacité sans changement d’architecture par rapport à la RTX 3090 Ti et donc avoir des perfs de folies.<br /> En gros :<br /> Efficacité globale = efficacité Nvidia x efficacité TSMC = 4<br /> Efficacité globale = 1 x 4 = 4 sans changement d’architecture<br /> hors, on a plutôt:<br /> Efficacité globale = 0,45 x 4 = 1,8 avec changement d’architecture Lovelace<br /> Voilà comment je vois les choses en tout cas.<br /> Nota : Les perfs ne peuvent se vérifier en pratique qu’avec des logiciels comme 3DMark via le GPU score par exemple.
ABDev
Effectivement, là c’est compréhensible.<br /> C’est dommage que cela n’ait pas été précisé dans l’article.<br /> Ne faisant plus que du développement, je regarde désormais de loin les nouveautés Hardware, et j’avais donc oublié cette possibilité.
cid1
OMG, C’est plus un monstre, c’est un monster truck, vu la taille des ailettes de refroidissement, ça doit chauffer comme une poêle sur le feu, 3 slots, ni plus ni moins,<br /> ton iPhone ou ta montre connectée va appeler les secours pour température dangereuse.<br />
Cervicales_Torticolis
Clairement un monstre de performance en rasterization et rtx. Dommage pour le prix. Mais bon chacun fait ce qu’il veut, ça devient lourd les mêmes pleurnicheries sur les personnages enfin l’axe du Mal qui va acheter ces cartes. Juger derrière un écran c’est tellement mesquin.<br /> La mentalité du woueb
pecore
Avec la génération 3000, Nvidia nous avait montré son meilleure ratio performance/prix, à savoir la RTX 3080, en premier.<br /> Si comme je le crains il en va de même ici, c’est à dire que c’est la RTX 4090 à 2000€ qui offre le meilleur rapport performance/prix , j’ai peur pour les modèles en dessous, pourtant très attendus.
MattS32
sylvio50:<br /> Si en passant de 55 nm à 28 nm, l’efficacité théorique par TSMC est multiplié par plus que 4 (loi de Moore en gros), en pratique, on ne les retrouvent pas sauf lorsque l’architecture ne change pas, justement.<br /> Non. Diviser la taille de gravure par 2 n’a jamais multiplié l’efficacité énergétique par 4 (ou en tout cas pas depuis très longtemps). Et surtout, depuis un paquet d’années, les gains d’efficacité lié au processus de gravure sont relativement marginaux… Regarde déjà du temps du tick-tock d’Intel, les gains de consommation lors des die shrink n’étaient plus faramineux, et plus on grave fin, plus les gains deviennent faibles, parce qu’il y a de plus en plus de courants de fuite qui provoquent des pertes importantes. Au point qu’l arrive même parfois qu’une gravure plus fine mais pas aussi bien maitrisée donne au final une consommation supérieure…<br /> Tu penses bien que si le changement de finesse de gravure faisait gagner un facteur 4 et que le changement d’architecture faisait ensuite perdre plus de la moitié de ce gain, les concepteurs de puces dépenseraient pas des milliards pour concevoir de nouvelles architectures, ils se contenteraient de faire des die shrink de leurs anciennes architectures, ça leur coûterait moins cher tout en pouvant être vendu plus cher, puisque les gains pour l’utilisateur seraient plus grands…
bennj
Pour la VR notamment.
SplendoRage
Alors je dois avouer que concernant les Quadro, la dernière que j’avais eu était sur architecture Volta … Bon …<br /> Cependant justement, il me semble que Nvidia, à la différence des cartes Titan, développe les drivers des GeForce d’une autre « manière », certaines features n’étant pas activent ou implémentés par rapport aux anciennes gamme Titan et Quadro actuelles.<br /> Donc en plus de proposer des 4090 à des prix délirant en les cataloguant de cartes « semi-pro », en réalité, elles offrent moins de features que les anciennes Titan, qui elles, étaient justement faite pour se positionner sur ce segment de produits.<br /> Ça permet à Nvidia de réduire les coûts en terme de développement de drivers tout en augmentant les prix et de ne pas avoir une carte qui viendrait cannibaliser le marché des Quadro au passage !
Kriz4liD
« il convient tout de même d’insister sur le fait que le jeu vidéo n’est évidemment pas la vocation première d’une telle carte. »<br /> Pas d’accord , les rtx sont là pour le jeu , pour les pros ils proposent d autres cartes .<br /> Sinon merci pour le test , nvidia vient de sortir un monstre , gourmand certes mais très bluffant ! Bien joué à eux !<br /> Ça sent pas bon pour AMD , j espère qu’ils ont de quoi concurrencer nvidia
pplchat
cool, les pigeons vont pouvoir acheter les prochains écrans 8k pour continuer à payer 2 fois plus dans les cinq prochaines années des nouvelles cartes
DrCarter95
Elle est vraiment incroyable niveau performance et finalement elle ne consomme pas tant que ça <br /> J’ai limite envie de la prendre malgré son prix
ygloo_one
« Les gains d’efficacité entre 2080 et 3080 ont été quasiment deux fois plus faibles, à peine plus de 35% »<br /> Oui, sauf que le prix entre 2080 et 3080 n’a pas fait x2. 2080: 849, 3080: 719, 3080 16Go: 1469E.<br /> 35% pour moins cher contre… disons 40-50% et 2 fois plus cher.<br /> La 4090 n’est pas représentative de toute la gamme. Les 4080 seront plus ‹ castrées ›.
MattS32
Oui, et alors ? On parlait efficacité, pas prix…<br /> Surtout que j’ai précisé en plus : « On peut discuter du prix, de la consommation électrique dans l’absolu… Mais sur le plan de l’efficacité, y a vraiment rien qui puisse lui être reproché… »…
sylvio50
MattS32:<br /> Tu penses bien que si le changement de finesse de gravure faisait gagner un facteur 4 et que le changement d’architecture faisait ensuite perdre plus de la moitié de ce gain, les concepteurs de puces dépenseraient pas des milliards pour concevoir de nouvelles architectures, ils se contenteraient de faire des die shrink de leurs anciennes architectures, ça leur coûterait moins cher tout en pouvant être vendu plus cher, puisque les gains pour l’utilisateur seraient plus grands…<br /> Il y a un exemple récent avec l’introduction des RT Core sur la RTX 2070 par exemple. Ce GPU fait 450 mm² parce qu’il embarque des unités spécialisés pour le ray tracing. Le GTX 1080 Ti qui fait lui aussi 450 mm² a une efficacité « généraliste » à peine moindre (en fait, il est plus performant, mais il consomme plus) alors qu’il est gravé en 16 nm (contre 12 pour le RTX 2070). La différence se situe dans l’ajout de fonctionnalités que le GTX 1080 Ti ne gère pas ou très mal (en software par exemple, l’efficacité du ray tracing serait mauvaise). Donc, on a bien une chute « générale » de l’efficacité, accompagné d’un gain « spécialisé ». Si ils restaient sur la même architecture, il n’y aurait pas d’ajout de fonctionnalités géré au niveau matériel.<br /> Dans d’autres cas, l’efficacité générale dû à l’architecture peut être légèrement amélioré (HD5870 vs HD6870).<br /> Non. Diviser la taille de gravure par 2 n’a jamais multiplié l’efficacité énergétique par 4 (ou en tout cas pas depuis très longtemps). Et surtout, depuis un paquet d’années, les gains d’efficacité lié au processus de gravure sont relativement marginaux…<br /> Oui, c’est surtout vrai depuis le 28 nm. Ils sont d’ailleurs passés du 28 nm au 14 nm (16 et 12 nm pour Nvidia) directement sans passer par le 20 nm intermédiaire.<br /> Il n’empêche que le passage du RTX 3090 Ti au RTX 4090 a permis de passer de 45 millions de transistors par mm² à 125 MTr/mm² soit une densité de 2,8x au lieu de 4x, mais à surface égale et surtout à TDP égale, la RTX 4090 a une fréquence plus élevé.<br /> TSMC a fait un travail exceptionnel ici, il n’y a aucun doute là dessus.<br /> Pour le gain intrinsèque à l’architecture d’Nvidia, il faudra attendre un GPU d’environ 28 milliard de transistors (un semi-RTX4090 sur bus 192 bit serait idéal pour la comparaison) pour en avoir le coeur net et pouvoir comparer à nombre de transistors égal avec le RTX 3090 par exemple.<br /> Il n’empêche que le RTX 4090 est plus perf et efficace que le RTX 3090(Ti) malgré tout, c’est indiscutable.
pecore
Ok, encore une fois Nvidia a réussi son coup de com, il faut reconnaitre qu’ils sont doués pour cela. La carte est très impressionnante, surtout par rapport à la carte de génération précédente.<br /> Mais il faut tout de même réussir à voir à travers les paillettes et notamment se rappeler que la RTX 3090 n’était pas du tout une bonne carte: son ratio prix/perf était lamentable par rapport à une RTX 3080 ou une RX 6900 XT. Du coup, mettre la RTX 4090 face à la RTX 3090 ne peut que la faire briller par comparaison<br /> Seulement, en ira t’il de même avec la RTX 4080 qui pour le coup va se retrouver en face d’une très bonne RTX 3080, ou RTX 3080 Ti, en fonction du modèle 12Go ou 16Go. Là, je doute qu’on obtienne des différences aussi remarquables alors que la différence de prix MSRP, elle, sera tout à fait remarquable.<br /> Rappelons nous aussi que trop s’extasier sur des produits aussi chers et pire encore, les acheter, ne peut qu’encourager les fabricants à continuer de pratiquer des prix d’une autre planète et ceux qui seront perdants, ce sera nous.
faboss
Euh la 3080 Ti devant la 3090 dans les 3/4 de vos tests, ce n’est pas normal…
MattS32
sylvio50:<br /> Donc, on a bien une chute « générale » de l’efficacité, accompagné d’un gain « spécialisé ».<br /> Oui, c’est vrai dans ce cas particulier. Dans le cas des 40xx vs les 30xx, ça ne s’applique pas vraiment : il n’y a pas de nouveau type d’unité de traitement spécialisée.<br /> sylvio50:<br /> Il n’empêche que le passage du RTX 3090 Ti au RTX 4090 a permis de passer de 45 millions de transistors par mm² à 125 MTr/mm² soit une densité de 2,8x au lieu de 4x<br /> Oui, mais encore une fois, tu ne peux pas traduire ça en gain d’efficacité… Ce n’est pas parce que tu met 2.8x plus de transistors dans la même surface que tu multiplies forcément l’efficacité par 2.8… La consommation ne dépend pas que de la surface d’une puce indépendamment de la finesse de gravure et les performances ne sont pas strictement proportionnelles au nombre de transistors. Et tous les transistors d’une même puce n’ont pas la même contribution à la consommation et à la performance totales.<br /> Et d’ailleurs, la densité elle même, elle ne dépend pas que du processus de gravure. Elle dépend AUSSI de l’architecture… Car toutes les parties d’un circuit ne peuvent pas atteindre la même densité.<br /> Quelques exemples, sur le CPU Poulson d’Intel, gravé en 32nm :<br /> 4.5 MT/mm² pour les cœurs d’exécution,<br /> 13.3 MT/mm² pour le cache L3,<br /> 0.65 MT/mm² pour les I/O<br /> On a donc, sur un même die, et donc forcément le même processus de gravure, une densité qui varie d’un facteur 20 entre différents blocs (et en découpant en blocs plus petits, on constaterait probablement des variations de densité encore plus grande).<br /> Et du coup, forcement, avec le même processus, une puce avec une plus grande quantité de cache va avoir une densité plus élevée, alors qu’à l’inverse une puce avec plus d’I/O (par exemple, une version prévue pour fonctionner en quad CPU vs une version mono CPU) va avoir une densité plus faible.<br /> sylvio50:<br /> Pour le gain de l’architecture d’Nvidia, il faudra attendre un GPU d’environ 28 milliard de transistors (un semi-RTX4090 sur bus 192 bit serait idéal pour la comparaison) pour en avoir le coeur net et pouvoir comparer à nombre de transistors égal avec le RTX 3090 par exemple.<br /> Ça n’a absolument aucun sens de faire ce type de comparaison. Parce que les transistors n’ont pas tous le même apport de performances (ni le même impact sur la consommation) selon l’endroit où ils sont utilisés…<br /> Typiquement, cette nouvelle architecture a, comme je l’ai expliqué plus haut, beaucoup plus de cache que l’ancienne. Le cache, ça consomme beaucoup de transistors, tout en apportant relativement peu en performances. Mais c’est pas pour autant qu’une architecture avec plus de cache est plus mal optimisée…<br /> ll est possible également que des transistors supplémentaires aient été rendus nécessaire pour faciliter la montée en fréquence : il n’y a pas que la finesse de gravure qui joue sur la capacité à monter en fréquence, l’architecture joue beaucoup également (exemple chez Intel, les derniers Pentium D montaient beaucoup plus haut en fréquence que les premiers Core 2 Duo, malgré l’utilisation du même processus de gravure : 3.7 GHz pour les Pentium D, 2.67 GHz pour les Core 2 Duo).<br /> Si pour faire une puce de ~28 GT nVidia fait simplement une réduction proportionnelle de toutes les unités, elle aura le même ratio performances/T qu’une 4090 et sera sans doute moins performantes qu’une 3090, mais en ayant moins de transistors « de calcul » qu’une 3090…<br /> Si à l’inverse nVidia fait quelque chose de non proportionnel, en taillant plus fortement dans le cache par exemple, les peformances/T seront sans doute meilleures que sur la 4090. C’est pas pour autant qu’on pourra considérer cette variante comme disposant d’une architecture « mieux optimisée ». L’architecture étant strictement la même… Comme entre un 5800X et un 5800X3D : l’architecture est la même, mais le second offre deux fois moins de performances/T… Tout en atteignant des performances que le 5800X n’est pas capable d’atteindre…<br /> Utiliser des indicateurs comme les perfs/T pour juger de l’efficacité d’une architecture a d’autant moins de sens que dans le domaine des puces, comme dans le sport, plus les performances sont élevées, plus les gains sont difficiles à obtenir… À part en parallélisant bêtement, ce qui ne marche que avec des workloads qui se parallélisent bien, doubler le nombre de transistors ne va jamais doubler les performances, tout comme un sportif qui passe de 8 à 16h d’entrainement par semaine ne va pas doubler ses performances…
ygloo_one
Donc on ne peut pas discuter du prix malgré ce que tu écris.<br /> Moi je dis que ne parler que d’efficacité perf/watt juste pour avoir raison, c’est très réducteur. Elle est très chère, elle consomme beaucoup. Je ne vois pas d’efficacité.<br /> Si à prix égal et consommation égale, elle est plus performante que la précédente alors oui c’est plus efficace. Sans ça…<br /> Les batteries / condensateurs au graphène sont efficaces selon ta définition réductrice. Après 15 ans de recherche dessus, cela n’existe toujours pas, même chez Tesla. Donc non, en l’état ça n’est pas efficace du tout. Le prix est prohibitif.<br /> L’efficacité c’est pas de faire mieux quelque soient les coûts.
ezechielxae
Au vu des tarif des ryzen 7, je me marre déjà pour leur prochaines CG, beaucoup vont pleurer quand ils verront des tarifs identiques a nvidia
pecore
Ça m’étonnerait vraiment beaucoup. Face au rouleau compresseur Nvidia et à leur politique de fuite en avant, AMD sait qu’il ne peut, ni ne doit, jouer la surenchère et surtout pas en matière de prix.<br /> AMD s’est depuis longtemps efforcé d’être le contrepoint de Nvidia. Il en ira de même cette fois-ci. La seule chose que j’espère, c’est que Nvidia sortira ses RTX 3080 rapidement car c’est probablement contre elles qu’AMD va se positionner, tant en matière de prix que de perfs et là, ça pourra être intéressant.
MattS32
ygloo_one:<br /> Moi je dis que ne parler que d’efficacité perf/watt juste pour avoir raison, c’est très réducteur. Elle est très chère, elle consomme beaucoup. Je ne vois pas d’efficacité.<br /> Oui, elle est très chère. C’est un fait.<br /> Mais non, elle ne consomme pas beaucoup en regard de ses performances. C’est justement ça l’efficacité, et le prix de vente ne peut en aucun cas le remettre en cause : jamais une carte graphique n’a délivré un tel niveau de performance pour chaque Wh consommé.<br /> ygloo_one:<br /> Si à prix égal et consommation égale, elle est plus performante que la précédente alors oui c’est plus efficace. Sans ça…<br /> Non. Le prix de vente n’entre pas dans le calcul de l’efficacité. L’efficacité n’est pas le rapport performances/prix. Ce sont deux choses bien différentes, qui entrent tous les deux dans les critères de définition d’un bon produit, mais sont bien indépendants l’un de l’autre.
Nerces
Et dire que dans l’article, je propose un « joli » graphique pour détailler les performances / Watt et les performances / Euro, c’est quand même dommage
MattS32
En effet, j’avais bien vu les performances/W, c’est sur ça que je me suis basé plus haut pour dire qu’elle a une efficacité en progression de 60% par rapport à la 3090, mais je n’avais pas vu qu’il y avait aussi les performances/€.<br /> Du coup en fait même sur ce point, elle n’est pas mauvaise, il n’y a que la 3080 FE qui fait mieux, mais on sait que dans les faits, la FE était en pratique très difficile à obtenir et les prix du marché sur les autres 3080 ont longtemps été à plus du double.
Urleur
Bon test, effectivement sa s’adresse à une certaine élite qui à déjà le matos qui va avec, la majorité est dans l’attente des 60 et 70, wait and see.
Feladan
D’acc fallait préciser, merci de l’avoir fait dans un second temps . Ce n’était pas totalement clair (surtout que juste avant tu parles de prix, qui n’est pas un argument architectural mais commercial ^^)<br /> Je n’ai pas nié l’architecture, d’ailleurs très honnêtement je ne vais pas aussi loin que toi (et je m’en cogne également, car comme la majorité des joueurs du monde, je joue en 1080p, les cartes n’ont plus aucun intérêt pour moi depuis les 20XX ^^ ), donc je te crois sur parole.<br /> Mais dans certains commentaire tu donnes l’impression de juger les autres qui n’ont pas le même avis (ou qui achèteraient la carte quand même car ils n’ont pas les mêmes critères de sélection que toi). Fais juste attention aux petits commentaire type « il faut être objectif », ou « moi je réfléchi » ^^<br /> Surtout que tu prouves très bien ton point de vu sans ces petits morceaux de phrases superflus
Popoulo
Pas vraiment d’accord. Tu disposes de Studio Driver pour les séries 1xxx - 2xxx - 3xxx. Certes, ce ne sont pas les ODE des Quadro, certifiés ISV &amp; Co mais ça fait largement le taff. Si t’as besoin d’une petite WS performante, de secours, ou pour faire certaines tâche de rendering ou que sais-je, sans devoir sortir +20k (comme pour une Z8 G4 HP par exemple - extrême l’exemple certes), niveau prix/perfs GPU, t’auras pas mieux. Y a pas photo.<br /> Pour la RTX Titan je dirai que c’est un peu spécial. Même si encore très performante - elle est maintenant derrière une 3090. Elle pourra peut-être devant et faire la différence grâce à ses Tensor Cores en nombre supérieurs en ce qui concerne le machine learning et autre AI. J’avais toujours l’impression que cette carte était vraiment à cheval entre les Quadro et les GPU grand public. Les drivers, si je dis pas de connerie, sont identiques à ceux des 3xxx &amp; co (studio driver et game ready) et ne bénéficient donc pas des certifs comme pour les Quadro.
Sabrewolf
Les pseudo affaires sur les cartes graphique sont basées sur le prix gonfler artificiellement par les « pénuries » elle reste au dessus des prix que l’on devrait avoir en comparaison des prix pratiqués avec la gen précédente. Et comme ça fonctionne Nvidia n’a plus besoin de diminuer le prix de la nouvelle gen.
sylvio50
MattS32:<br /> Si pour faire une puce de ~28 GT nVidia fait simplement une réduction proportionnelle de toutes les unités, elle aura le même ratio performances/T qu’une 4090 et sera sans doute moins performantes qu’une 3090, mais en ayant moins de transistors « de calcul » qu’une 3090…<br /> Là dessus, je suis d’accord, et c’est justement cela que je voulais dire. Ca permettrai de mettre en avant l’architecture tel qu’elle est (moins de « transistor de calcul » comme tu dis).<br /> Si à l’inverse nVidia fait quelque chose de non proportionnel, en taillant plus fortement dans le cache par exemple, les peformances/T seront sans doute meilleures que sur la 4090. C’est pas pour autant qu’on pourra considérer cette variante comme disposant d’une architecture « mieux optimisée ». L’architecture étant strictement la même… Comme entre un 5800X et un 5800X3D : l’architecture est la même, mais le second offre deux fois moins de performances/T… Tout en atteignant des performances que le 5800X n’est pas capable d’atteindre…<br /> La dessus, je ne suis pas d’accord. La mémoire cache fait parti de l’architecture. Les proportions interne aussi (TMUs vs Shaders vs ROP vs bus etc…). Si une mémoire cache occupe trop de place, l’architecture sera mauvaise, et si pas assez de cache également. Idem pour un bus trop petit ou trop large (il ne faut pas que ça occupe trop de place, mais il ne faut pas non plus brider les perfs des unités Shader/TMU/ROP).<br /> Ensuite, on ne peut pas comparer un CPU et un GPU à cause de la difficulté de monter en performance sur des calculs effectué en série. Le gain en perf des CPU monocore de génération en génération est médiocre. La mémoire cache sur un CPU peut jouer un rôle dans certains jeux vidéos ou dans certains logiciels comme WinRAR, mais c’est assez spécifique à seulement quelques jeux pour lequel le gain peut être élevé.<br /> Donc pour moi, la mémoire cache est un critère d’optimisation, la largeur du bus aussi, et tout le reste (proportions interne).<br /> Mais c’est pas pour autant qu’une architecture avec plus de cache est plus mal optimisée…<br /> Si ça occupe trop de place, si. Car le TDP est proportionnel au carré de la fréquence. En doublant la taille de die (sans changer l’architecture et les proportions) et en baissant la fréquence de 40%, tu peut augmenter les perfs de 40% à TDP constant, hors une mémoire cache qui occuperait trop de place et qui n’apporterait que 10% de perf sur une architecture massivement parallèle serait indirectement de la perte d’efficacité.<br /> À part en parallélisant bêtement, ce qui ne marche que avec des workloads qui se parallélisent bien, doubler le nombre de transistors ne va jamais doubler les performances, tout comme un sportif qui passe de 8 à 16h d’entrainement par semaine ne va pas doubler ses performances…<br /> Tu parle à TDP constant pour 2 finesses de gravure différente ? Si oui, il y a des exemples.<br /> En revanche, c’est vrai qu’avoir 2,8x plus de transistors en passant de 8 nm à 4 nm ne permet pas d’avoir une efficacité énergétique même 2,8x plus grande par exemple à taille de GPU égale et à TDP égal.<br /> La dessus, je reconnait une erreur de ma part.<br /> Pour l’efficacité pure, il faudrait baisser la fréquence de plus de 1,8x pour diviser le TDP par plus que 3 et ainsi obtenir cette efficacité supérieur à 2,8x (sur 3DMark GPU score uniquement. Dans les jeux, c’est plus beaucoup plus faible). Dans ce cas, ça serait à « performance égale » par rapport à la génération précédente plutôt qu’à « TDP égal ».
sandalfo
Merci pour le test, assez complet.<br /> J’apprécie le ration perf/watt perf/prix à base de TimespyExtreme.<br /> Cette carte est un monstre, ce n’est pas une surprise. Pas encore utilisé de manière optimale même avec RT on, DLSS3 et 4K Ultra sur les jeux actuels. Il faudra attendre la prochaine génération de moteurs type UE5 ou celui de GTAVI ou RDR3 pour voir ce qu’elle a dans le ventre. Mais elle s’en sort bien sur les gros jeux du moment, surtout avec DLSS3 qui est exclusif à l’archi Lovelace.<br /> A 2K€ la carte graphique c’est une carte pour millionnaires (PC complet à 5K€ avec l’écran 4K) je ne mettrai pas plus de 700 ou 800€ dans une carte graphique, c’est déjà énorme. Il y a des années c’était plutôt 500€ max mais l’inflation est passée par là.<br /> Je ris déjà en pensant aux PC portables avec GPU Lovelace, qui auront un TDP de 150W maximum pour un format correct (16 pouces max, 2,5kg max). Comment sortir de bonnes perf avec 150W quand la 4090 suce 450W au max ? c’est une gageure pour les ingénieurs AMD et nVidia pour RDNA3 et Lovelace mobiles. Car j’attends surtout ces puces dans un portable ou un PC type steam deck ou GPD win max 2 de moins de 1kg pour voir ce que l’architecture a dans le ventre avec peu de Watts. Je n’ai plus de PC au sens traditionnel, seulement laptop et steam deck.
sylvio50
sandalfo:<br /> Je ris déjà en pensant aux PC portables avec GPU Lovelace, qui auront un TDP de 150W maximum pour un format correct (16 pouces max, 2,5kg max). Comment sortir de bonnes perf avec 150W quand la 4090 suce 450W au max ? c’est une gageure pour les ingénieurs AMD et nVidia pour RDNA3 et Lovelace mobiles. Car j’attends surtout ces puces dans un portable ou un PC type steam deck ou GPD win max 2 de moins de 1kg pour voir ce que l’architecture a dans le ventre avec peu de Watts. Je n’ai plus de PC au sens traditionnel, seulement laptop et steam deck.<br /> Moi aussi justement. Les cartes graphique de bureau ne m’intéresse plus. C’est pour ça que je m’intéresse à l’efficacité et après coup, elle n’est pas si mauvaise en considérant un underclocking. Il est possible qu’à 100 W seulement, les perfs soit supérieur à la RTX 3070 de bureau. Et qu’à 165 W, elle dépasse les perfs d’une RTX 3090 de bureau.<br /> Reste plus qu’à attendre que des overclockeurs test l’underclocking sur ce GPU pour avoir un meilleur aperçu de ce qu’il vaut vraiment.
kervern
qu’en ai t il de la prise Connecteur 12VHPWR, adaptateur est il fournir dans la FE ?<br /> on a entendu tout et son contraire dessus !
kervern
parce que les nouveaux usb sont aussi une sortie vidéo et certains écran secondaire et tactile sont en usb, pour moi c’est effectivement secondaire c’est cas le dire, mais la norme est bien là c’est un faite, et de là adevoir ajouter un module de conversion qui gacherais tout ! mais je pense qu il vaut mieux attendre usb 4 et ce soit natif
Nerces
Je ne l’ai pas indiqué clairement dans l’article, mais une photo illustre ledit adaptateur. Il s’agit d’un produit sur lequel on branche des câbles 8 broches : 3 en usage « normal » et 4 pour de l’overclocking.
pecore
Les compétences techniques de certains ici me font me sentir tout petit et me font mesurer le faussé qui sépare le simple bidouilleur des gens qui savent vraiment.<br /> A défaut de vrais connaissances techniques, j’essaye de m’appuyer sur la logique et la comparaison entre les différents produits et les différentes générations. Cela me conduit à penser que les bonnes performances de la RTX 4090 reposent au moins en partie sur son gigantisme mais que la technologie lovelace ne sera possiblement pas aussi adaptée aux petites solutions.<br /> Le simple fait qu’Nvidia choisisse de sortir une carte aussi grosse et chère en premier est un élément qui va dans ce sens et l’absence remarquable des cartes plus « accessibles », mais plus faibles, les RTX 4080, en est un autre. Je pense qu’il a un effet « écran de fumée » visant justement à faire penser aux clients qu’ils auront le même ratio prix/perf/watts que la RTX 4090 sur les cartes moins chères ou les solutions portables.<br /> Mais pour l’instant, rien ne permet de l’affirmer et j’attends avec impatience la sortie de la RTX 4080 12 Go qui, avec 2,4 fois moins de cœurs, deux fois moins de cache L2 et deux fois moins de bus mémoire, devrait nous montrer si, dans le cas présent, qui peut le plus, peut le moins.
louchi
J’en ai pris 2 pour mettre en SLi et jouer à Minecraft.
pecore
Bien tenté, le SLI a été abandonné pour cette génération.
louchi
Je sais bien
pecore
Je m’en doutais
faboss
mais rien n’empeche d’en prendre 2 et de compter sur l’implementation du support multi-gpu natif a dx12/vulkan
Feunoir
Le seul vrai souci c’est le prix des cartes de cette gamme.<br /> Dire que j’ai quasi mis 2ans pour craquer et finalement prendre une 3080 à 1300€ (un arrivage d’un petit stock a ce prix, elles étaient alors toutes &gt; 1500 donc par un biais psychologique je suis arrivé à me convaincre) et là les 4080 seront encore plus chère?<br /> Bon vu leur puissance et avec un 4K qui je le déclare me suffit désormais (ma course commencée en 320x240 monochrome est terminée de ce coté là (un éventuel quasi 5K pour de l’écran extralarge au pire)) alors je me dis qu’il y a un mur relativement proche pour Nvidia. Car si je me contente de 60FPS, l’augmentation de la qualité des jeux sera telle suffisante pour justifier l’existence même des carte rtx &gt;6070 dans qq années? On verra bien mais je ne me vois pas prendre du 8K
StephaneGotcha
Une excellente carte … qui devrait être à 800€.<br /> En attendant la 4080 à 700€ et la 4060 à 500€.<br /> Oui je sais, je rêve de prix normaux.<br /> En attendant, je suis passé à la réalité : Une PS5 qui a remplacé la CG de mon PC, et bien sur à prix défiant toute concurrence (je précise à 500€ et pas 550).
pecore
Je plussoie : aucune carte gaming ne devrait dépasser les 999€, au delà cela devrait être considéré comme du matériel pro, vendu sous une autre appellation pour faire le distinguo.<br /> Nvidia est toujours flou quant à cela, avec des sophismes du type « pour professionnels ET joueurs enthousiastes » ou « carte semi-pro », mais le pire c’est que ça marche.<br /> Et oui, la PS5 comme valeur refuge, ou tout simplement valeur normale, ça ne m’étonne pas.
loremipsum
Là, les perfs ne justifient pas les 76,3 milllions de transistors, soit plus de 48 millions de transistors supplémentaires par rapport à Ampere …<br /> On parle ici de milliards
SplendoRage
La GTX 1080 Ti était devant la GTX Titan lors de sa sortie …<br /> Si t’avais pas remarqué, la 3080Ti et la 3090 sont identique (a quelques unité cuda près). Leur specs sont quasi identique sauf que la 3080Ti boost plus haut en fréquence !<br /> (Et selon les customs, le vcore locked est à 1.1 - 1.2v, là où il est fixe sur la 3090 à 0.920v)
faboss
Ici c’est 2 founder<br /> Aucune spec n’est superieure sur la 3080ti FE vs 3090 FE:<br /> 10240 Cores @ 1,37-1,67GHz vs 10496 Cores @ 1,40-1,70GHz<br /> à la limite, ok pour un boost qui peut eventuellement monter un peu plus haut mais :<br /> +28% Cyberpunk 1440p ??<br /> +19% Cyberpunk RT 1080p ??<br /> +15% FarCry 6 1080p ??<br /> +18% Total War 1080p ??<br /> permettez moi de douter, surtout qu’il y a aussi des incoherences totale sur certains jeu entre les differentes resolution…
Emmanuel_Angulo
Est-ce déraisonnable ? Tout autant que la 3090 à sa sortie, en fait… Et cette carte est désormais quasiment accessible.<br /> C’est juste une question de temps
Emmanuel_Angulo
La 4080 12go vient d’être annulée par Nvidia. A mon avis, elle va tout simplement devenir la 4070
Emmanuel_Angulo
A mon avis, AMD va suivre la tendance. Pourquoi se priver d’une telle marge brute ? Les 7900 XT seront tout juste 100 euros moins chères que les 4090 , tu verras
ZZorrgg
Le probleme avec ces cartes c’est que les jeux AAA sont devenu recement completement woke/chiant. Au final ces cartes vont servir a faire tourner des jeux indy qui tourneraient pareil sur une gtx 1060
pecore
Un aveux de faiblesse d’après moi et qui confirme ce que je pensais. Avec la même appellation elle aurait été placée en face de la RTX 3080 et adieux les +50% ou +100% brillants de mille feux, place à des +15 ou +10% beaucoup moins glamours.
bennj
Le prix d’une 4090 ne m’intéresse pas c’est celui des 4080 qui m’interpelle surtout, et c’est là dessus que AMD a une carte à jouer.
yAAm
Je ne suis pas d’accord avec cette approche, compte tenu de la surface gagné on pourrait dans ce cas graver deux puces de 3090 cotes à cote (en fait plus avec cette finesse) et ajouter quelques milliards de transistor pour les faire mieux communiquer, et on aurait toujours moins de transistor que sur cette 4090.
MattS32
Oui, mais rien ne prouve qu’on aurait la même efficacité énergétique qu’une 4090… La consommation ne vient pas que de la taille de gravure et du nombre de transistors. L’architecture joue aussi un rôle dans la consommation.
yAAm
A quand un test sur l’apprentissage sur un réseau comme ESRGAN et un test d’inférence sur quelques modèles connus pour se rendre compte des capacités IA
yAAm
Oui c’est clair aucune idée de ce que pourrait être l’efficacité énergétique d’une 3090 miniaturisée ou même si c’est possible, c’est une remarque rapport au nombre de transistor.
Emmanuel_Angulo
Je suis dans la même idée que toi. J’ai hâte de voir comment va se placer la 7800 . Mais pas de miracle à mon avis : ça va se jouer sur la disponibilité et quelques euros de moins
sylvio50
MattS32:<br /> La consommation ne vient pas que de la taille de gravure et du nombre de transistors. L’architecture joue aussi un rôle dans la consommation.<br /> J’ai essayé de faire un tableau pour essayer d’évaluer ça avec des hypothèses pour une même architecture (de plus de 28 nm) et même technologie de transistors.<br /> GPU1112×848 106 KB<br /> Hyp 1 : Le nombre de cœurs est proportionnel à la surface.<br /> Hyp 2 : Le nombre de cœurs est inversement proportionnel au carré de la finesse de gravure.<br /> Hyp 3 : Le TDP est proportionnel au nombre de cœurs.<br /> Hyp 4 : Le TDP est proportionnel au carré de la fréquence.<br /> Hyp 5 : Le TDP est proportionnel à la finesse de gravure.<br /> Hyp 6 : Les performances sont proportionnelles au nombre de cœurs.<br /> Hyp 7 : Les performances sont proportionnelles à la fréquence.<br /> Toutes ces hypothèses ne concernent que la « couche physique » de la puce. Je ne m’intéresse pas à la « couche logique » (architecture, mémoire, partie logiciel etc…). C’est pas forcément très précis, mais ça permet d’avoir un ordre d’idée.
sylvio50
Un article dédié dessus serait d’ailleurs très intéressant .
pecore
Peut être, espérons que non. En revanche, si les RX 7800 déchirent pour un prix maitrisé, à savoir nettement moins que les 1199$ annoncés par Nvidia pour sa concurrente directe, il sera intéressant de voir si Nvidia va aussi « unlaunch » son autre RTX 4080.<br /> Les chances sont minces mais ce serait tellement drôle après le coup des RTX 4080 12 Go.
pecore
Clubic va parler de l’arrêt de la production de la RTX 4090, et des câble d’alimentation qui brulent ou ce sont des sujets tabous ?<br /> Parce que, « unlaunch » une carte annoncée mais pas encore sortie, passons (), mais unlauch une carte déjà sortie, la seule de sa génération et le flagship désigné en plus, ça cela mériterait qu’on en parle un peu tout de même.
kyosho62
pecore:<br /> et des câble d’alimentation qui brulent ou ce sont des sujets tabous ?<br /> Clubic.com – 26 Oct 22<br /> RTX 4090 : des usagers illustrent la fonte de leur adaptateur 16 broches 12VHPWR<br /> En quelque sorte la « mauvaise blague » du moment, la fonte d'un câble dans son PC n'est évidemment pas à prendre à la légère.<br />
pecore
Je ne l’avais pas vu, merci pour le lien.<br /> Mais l’autre sujet me semble le plus important des deux, surtout après juste 13 jours d’exploitation et sur ça, il n’y rien, pour l’instant.
MattS32
nVidia n’a pas confirmé d’arrêt.<br /> En outre, un arrêt de production à cause d’un défaut, ce n’est pas nécessairement un « unlaunch » : ça n’implique pas une annulation totale du produit, la production peut très bien repartir plus tard avec une nouvelle révision du produit.<br /> D’où l’intérêt d’attendre ce qu’en dit nVidia pour savoir si c’est un arrêt définitif ou juste temporaire.
Nerces
Et si c’est un arrêt réel ?<br /> Je n’ai pas fait de brève sur cet « arrêt » car j’arrivais déjà un peu tard et qu’en plus, l’info source n’était pas forcément très convaincante. Je me suis donc dit attendons de voir.
pecore
Effectivement, pour l’instant cela reste non confirmé, mais en temps normal cela ne gène personne ici de parler de rumeurs et même de rumeurs bien plus capillotractée que ça parfois. Et la gueule des stocks de RTX 4090, alors qu’on parle d’une carte à 2000€ tout de même, semble plutôt corroborer la rumeur.<br /> De plus, même momentané, un arrêt de production même pas deux semaines après le lancement en grandes pompes, ce serait le pire des papers launch, à la limite de l’escroquerie. Cela signifierait qu’Nvidia a sorti son produit et en a vendu juste assez pour faire parler de son architecture avant la sortie des cartes concurrentes, mais sans avoir véritablement l’intention de satisfaire la demande.<br /> @Nerces : ok, si tu es sur le coup cela me rassure. J’ai hâte que tu puisses nous en dire plus.
Nerces
Le truc c’est qu’il ne faut pas oublier que les quantités de TITAN produites ont toujours été très faibles. Je ne suis pas sûr que la situation soit très différente pour la RTX 4090 : comme tu le dis, ce sont des cartes à 2000€, pas du tout destinée à production de masse.<br /> Il faudrait vraiment en savoir plus sur les quantités en jeu avant de s’insurger.
MattS32
pecore:<br /> Effectivement, pour l’instant cela reste non confirmé, mais en temps normal cela ne gène personne ici de parler de rumeurs et même de rumeurs bien plus capillotractée que ça parfois.<br /> Il y a une différence entre des rumeurs sur des caractéristiques futures de produits ou sur des dates de sorties et des rumeurs sur un arrêt de production à cause d’un défaut du produit : dans le deuxième cas, ça peut être considéré comme de la diffamation si ce n’est pas vrai.<br /> pecore:<br /> De plus, même momentané, un arrêt de production même pas deux semaines après le lancement en grandes pompes, ce serait le pire des papers launch, à la limite de l’escroquerie. Cela signifierait qu’Nvidia a sorti son produit et en a vendu juste assez pour faire parler de son architecture avant la sortie des cartes concurrentes, mais sans avoir véritablement l’intention de satisfaire la demande.<br /> Si l’arrêt est dû à un défaut constaté chez les premiers utilisateurs, on ne peut pas dire après coup qu’nVidia n’avait pas l’intention de satisfaire la demande, puisque justement cet arrêt n’est pas intentionnel, mais contraint par un défaut…
pecore
Je n’ai jamais parlé d’arrêt pour défaut et en effet, je ne conseillerai à aucun média de suggérer une telle chose sans en avoir la preuve. Mais il y a d’autres explications possibles, mauvaise rentabilité, demande plus faible qu’attendue, par ex.<br /> Quant à Nvidia, s’ils reconnaissaient arrêter la production le temps d’éliminer un problème potentiellement dangereux, je dirai bravo et je trouverai ça courageux.<br /> Mais nous savons toi et moi qu’il y a très peu de chance que cela arrive tant cela serait dommageable en terme d’image. De toutes façons, tu as raison, attendons déjà une confirmation.
hellraisercom
Je suis assez sur le c*l de voir les commentaires sur les perfs de cette carte, alors oui elle avoine tout dans les bench, mais franchement, ca sert a quoi si dans les jeux il y a juste un gain de 10ips !? Rien a faire des perfs dans les bench, moi c’est dans les jeux que je cherches la puissance !
MattS32
hellraisercom:<br /> Rien a faire des perfs dans les bench, moi c’est dans les jeux que je cherches la puissance !<br /> Toi peut-être. Mais les jeux ne sont pas forcément le cœur de cible des 4090, c’est des cartes qui visent aussi et même surtout les « petits » professionnels de la 3D ou du GPGPU, notamment les indépendants.
hellraisercom
Alors, cela fait longtemps que je ne me suis pas intéresser a cette univers, mais il n’y a pas des cartes spécifiques, les QUADRO n’existe plus ?
MattS32
SI, mais c’est pour ça que je parle des « petits », et notamment les indépendants : la gamme GeForce offre un bien meilleur rapport performances/prix que la gamme Quadro.<br /> Y a qu’à voir la description des RTX 40 sur le site de nVidia pour voir que la cible, c’est aussi les pros : « Les GPU NVIDIA® GeForce RTX™ série 40 offrent une rapidité extrême aux gamers et aux créateurs. […] Découvrez de nouvelles méthodes révolutionnaires pour créer du contenu et accélérer vos workflows de manière inédite. »<br /> Il y a même une page dédiée aux outils pro : Cartes graphiques NVIDIA GeForce RTX série 40
Voir tous les messages sur le forum

Derniers tests

Test Marshall Acton III : une mini enceinte de salon à la puissance surprenante
Test TCL 55C635 : un téléviseur abordable qui marque des points
Test Mate 50 Pro : Huawei peut-il encore se hisser parmi l'élite ?
Test Microsoft Surface Laptop 5 : élégant, plus puissant… mais indécrottable
Test Corsair EX100U : un minuscule SSD externe performant à emporter partout
Test JBL Bar 1000 : séance de rattrapage pour la barre de son avec enceintes d’effets détachables
Test DJI Avata : le drone FPV plus accessible que jamais
Test Trust GXT 981 Redex : légère en poids et en prix, des atouts suffisants ?
Test Apple iPad Pro M2 : une mise à jour qui vaut son prix ?
Test LG Gram 14 (2022) : un kilo seulement… mais quoi d’autre ?
Haut de page