🔴 Soldes dernière démarque : jusqu'à - 80% ! 🔴 Soldes dernière démarque : jusqu'à - 80% sur le high-tech

Il active le DLSS 3 sur sa RTX 2070 pourtant incompatible et double ses performances sur Cyberpunk 2077

Nerces
Spécialiste Hardware et Gaming
12 octobre 2022 à 18h00
42
NVIDIA DLSS © NVIDIA
© NVIDIA

Se pourrait-il que le DLSS 3 arrive bien plus vite que nous l'espérions sur les générations 2000 et 3000 des GeForce RTX ?

Au moment d'annoncer le DLSS 3, NVIDIA avait expliqué qu'il n'était pour l'heure pas possible de le déployer sur les GeForce RTX 2000 et 3000, mais que tout espoir n'était pas perdu, au moins pour une partie de cette nouvelle technologie prometteuse.

De 40 à 80 images par secondes ?

Aujourd'hui, et même s'il convient de garder une certaine distance tant que nous n'aurons pas pu voir la chose tourner, un utilisateur de Reddit, JusDax, affirme qu'à travers la mise en place d'un simple petit fichier de configuration, il a pu activer le DLSS 3 sur sa GeForce RTX 2070.

NVIDIA DLSS 2 vs DLSS 3 © NVIDIA
© NVIDIA

La carte n'est donc théoriquement pas capable de profiter de la troisième version du DLSS et, mieux encore, JusDax explique que cette activation lui a permis de booster les performances sur Cyberpunk 2077. Il évoque environ 80 ips en 1440p, contre plus ou moins 35-40 ips auparavant.

NVIDIA DLSS 2 vs DLSS 3 © NVIDIA
© NVIDIA

L'utilisateur précise toutefois que la prise en charge est imparfaite. Il indique que le fichier de configuration ajouté entraîne une certaine instabilité du jeu et la perte de quelques frames.

Un fichier de configuration bien mystérieux

JusDax explique qu'il a obtenu ledit fichier de configuration utilisé sur Cyberpunk 2077 grâce à ses « contacts », mais se refuse à préciser leur nature ou à diffuser le fichier lui-même. De fait, impossible de tester la chose pour vérifier ses dires.

Flight Simulator DLSS 3 © NVIDIA
© NVIDIA

Reste que nous sommes évidemment curieux de voir ce que cette histoire va donner alors que le DLSS 3 augmente nettement les performances déjà très élevées de la GeForce RTX 4090.

Le déploiement de cette technique sur les précédentes générations serait sans doute un frein à la diffusion des RTX 4000, mais aurait un certain retentissement auprès de la communauté NVIDIA. Qui refuserait de doubler les performances de carte sans bourse délier ?

Source : WCCFTech

Soyez toujours courtois dans vos commentaires.
Respectez le réglement de la communauté.
42
22
batmat
Enlarge your FPS
dredd
Il manque "Ivre, " au début de l’article.<br /> Sinon, plus de fps ok, mais quid de la latence ? Il me semble que c’est a ce niveau que le problème peut se poser’
cid1
C’est sûrement un fake cette histoire, je n’y crois pas à son histoire de « je me refuse à diffuser le fichier. » Ce gars a sûrement une 4 090 à disposition et montre des photos truquées.
pecore
Instantanément, je me suis dit la même chose pour le « Ivre ».<br /> Quant à l’info elle même, elle me semble aussi peu crédible, ou tronquée, que la plupart des articles qui commencent par ce mot.
AtomosF
Je crois plus que Nvidia bride volontairement la/les générations précédentes sans réelle raison valable. Ce ne serait pas une première.
cid1
Franchement, je n’en sais rien, qui sait ce qui est possible ou pas, ton hypothèse vaut autant que la mienne. Je me méfie des soi-disant perfs en hausse avec comme seule preuve une photo, qui, comme par hasard, tombe juste quand les 4090 FE se sont vendues en quelques minutes.<br /> Si au moins, il avait sorti son fameux fichier. Mais là rien, juste une excuse bidon.
phoenix2
Dlss et Fsr bullshit, c’est quoi cet enfumage, suffit de baisser la résolution d’un cran et laisser en plein écran t’aura le meme résultat, tout le monde peut le faire avec un gain significatif d’fps, ils nous prennent vraiment pour des idiots, n’empêche qu’une grande majorité de la masse est inculques dans ce domaine malheureusement, chose qui ne vas pas aider à laisser tomber cette aberration.
bennj
Ben désolé mais tu racontes clairement n’importe quoi. Va regarder les différents sites et vidéos qui comparent le natif, avec du DLSS et tu verras à quel point tu en dans le faux. Il a d’ailleurs déjà été prouvé que le DLSS qualité en 4K (ou autre résolution) rendait une image meilleurs que le 4K native.<br /> Sérieux j’en reviens pas qu’en 2022 je suis obligé de parler de ca.
sebstein
Hum… en l’occurrence, c’est toi qui est vraiment inculte…
phoenix2
Désolé de te contredire, mais normal que le dlss 4k soit plus beau que le native, en baissant la résolution (dlss et fsr ça se fait automatiquement) on peut monter les options graphiques, faudrait revoir ta copie, et je maintient mon point de vue c’est une supercherie.
bennj
« on peut monter les options graphiques » &gt; Mais tout est déjà en ultra…<br /> « je maintient mon point de vue c’est une supercherie » &gt; super, désolé je vais pas perdre mon temps avec une personne qui n’est pas capable de lire des articles sur le net sur le sujet qui confirme mes dires. Allez bonne soirée dans ta grotte.
darouine
Je ne suis pas suffisamment connaisseur pour avancer quoi que ce soit. Néanmoins, s’il se confirmait qu’il serait possible d’augmenter un tant soit peu les performance des rtx 20x par un simple programme, et que nvidia ne le fasse pas, alors se serait de l’obsolescence avéré. Ce qui va à l’encontre de l’écologie. Sortir des 4090 énergivores alors que l’on pourrait baisser les consommations par une meilleures optimisation logicielle, cela mériterait un boycotte en bonne et due forme.
Kaysis
Venez sur consoles.
Popoulo
@Kaysis : Quoi faire ?
Emmanuel_Angulo
Personnellement, je pense que ça pue le fake « je fais du buzz »… Pour moi, c’est aussi légendaire que celui qui avait prétendu pouvoir activer les Coeurs Cuda qui sommeillaient dans sa 3070 pour en faire une fausse 3080.<br /> Rien que la phrase « obtenu par un contact secret » , ça a la même portée que le fameux « cousin par alliance de mon beau frère qui a un pote qui connait un gars »
clockover
@BennJ<br /> Non le DLSS n’offre pas une image de meilleure qualité que celle de résolution native…
Towelie00
@bennJ bouffé par le marketing, il difusse des fake news.<br /> Même le DLSS 3.0 n’est pas aussi bon que du natif, mais bon c’est correct en mode qualité, c’est juste que le marketing de Nvidia se basse sur le mode performance… La 1080p upscale en 4k, la perte de détail est évidente. Les test sponsorisé ne montre pas des photo d’assez bonne qualité pour voir la supercherie.<br /> Ah oui a l’époque où cette blague était sortie c’est parceque le dlss fait office d’anti aliasing et bcp de jeu n’utilisait pas de TAA de qualité… On est en 2022 maintenant, loin de l’époque des 2080
bennj
Pardon ? Allez encore qui ne sait pas de quoi il parle. Regarde ce petit test à l’aveugle et après reviens poster ici : https://www.reddit.com/r/nvidia/comments/rosa6q/dlss_1080p_blind_test_lets_see_if_dlss_at_fhd_can/<br /> @Towelie00 Tu peux même regarder une vidéo, je t’ai indiqué le compteur qui montre bien que le DLSS Qualité est clairement meilleurs que le natif : AMD FidelityFX Super Resolution 2.0 - FSR 2.0 vs Native vs DLSS - The DF Tech Review - YouTube<br /> Et encore un autre histoire de : Cyberpunk 2077 DLSS Quality Comparison vs. Native, Benchmarks, &amp; Blind Test - YouTube<br /> Je peux y passer l’après midi si vous voulez pour sortir d’autres liens.
Feunoir
Que ce soit un fake ou pas je n’en sais rien mais a priori le DLSS3 a aussi une extrapolation d’image intermédiaire comme le fait un simple meta quest2 pour doubler les frame rate du casque (avec 45images ca en fait 90)<br /> Rien qu’avec ca il y a moyen de multiplier le débit de l’image, car avec 2 images calculées normalement on peut en faire 3 voir même 4 si on est confiant dans son générateur d’image intermédiaire.<br /> Évidement cela coute du temps pour les faire, et ce temps c’est la latence en + entre le moment ou cela aurait pu afficher les 2 images et le moment ou cela affichera les 3.<br /> La latence et la qualité perfectible des images intermédiaires ont surement freinés l’usage de cette méthode jusqu’à maintenant. A priori Nvidia pense que c’est jouable avec leur techno. (A priori il y aurait encore un peu de boulot coté qualité)
bennj
Regarde les liens que j’ai posté et apprends au lieu d’affirmer des choses sans aucune preuve.
phoenix2
J’ai rien à apprendre de quelqu’un qui s’entête dans la bêtise, quand on baisse la résolution automatiquement on peut pas jouer avec une resolution au dessus, c’est pourtant clair, le jour ou on aura des ordinateurs quantiques, peut être que ça sera possible, mais là c’est juste impossible, mais la masse avec son idiotie légendaire est prête à gober n’importe quoi, bof
Feunoir
Que ce soit via IA (utilisé abusivement pour moi), algorithme ou autre tripatouillage de code à la limite le principal c’est que sur les jeux que j’ai testé cela fonctionne pas mal.<br /> Entre un TAA (non désactivable, mais on peut parfois prendre du fxaa encore pire coté flou) qui fait du flou que je vois et un DLSS2 plus net avec peut être qq artefacts que je ne remarque pas et un gain de FPS qui me fait monter vers les 60FPS (4K)-&gt; je prends.<br /> Par contre qu’en j’étais en full hd je n’étais pas convaincu, pas moyen de l’utiliser sur un metro exodus pour mettre du RTX avec mon ancienne 2600 par exemple, je pense que là par contre cela descend trop bas en définition donc peut être pas assez de pixel pour faire un upscale gérable.<br /> En gros je teste un peu et si ca passe je prends le gain de fps, sinon je gère avec les options<br /> Le dlss a l’avantage de ne nécessiter qu’un clic dans les options, il garde OSD/menu du jeu en qualité maximum (pas d’uspcale dégueux pour eux) , et il y a des filtres optimisés appliqués d’office pour améliorer l’upscale. On est très loin de l’upscale basique qui fait des escaliers/aliasing et du flou qui existent depuis l’existence des cartes graphiques et que pas grand monde utilisé car cela faisait un travail dégueux. Ironiquement on a passé des années a se moquer des consoles qui abusaient de l’upscale pour que cela débarque sur nos pc presque avec soulagement pour ceux qui ont un gros écran
bennj
Je m’en tape complet que tu ne veuilles rien apprendre. Mais si tu pouvais arrêter de répandre tes commentaires comme des faits alors que tu derrière tu ne prouves rien. De mon coté j’ai apporté plusieurs informations qui confirme mes dires. Et toi en dehors de tes belles paroles, qu’est-ce qui prouve que tu dis vrai ? J’attends tes sources
phoenix2
C’est pas normal d’être aussi entêté, j’ai rien à prouver, pour la dernière fois, c’est impossible de baisser la résolution et de jouer avec la résolution au dessus en meme temps, c’est pourtant simple à comprendre, c’est ce que veulent faire croire c’est soit disant techno, c’est du foutage de gueule, voila c’est tout.
bennj
Faut juste être aveugle pour ne pas voir que le DLSS (et le FSR) en mode qualité fonctionne mieux que le 4K natif : AMD FidelityFX Super Resolution 2.0 - FSR 2.0 vs Native vs DLSS - The DF Tech Review - YouTube<br /> image1920×1080 135 KB<br /> image1920×1080 119 KB<br /> Et encore des exemples ici : Cyberpunk 2077 DLSS Quality Comparison vs. Native, Benchmarks, &amp; Blind Test - YouTube<br /> image1920×1080 76.3 KB<br /> image1920×1080 91.7 KB<br />
bennj
Si si tu as tout à prouver car tu parles beaucoup, mais pour rien en fait… ZERO preuve ! QUE DALE ! NADA ! NIET !<br /> Alors moi il n’y a qu’à regarder les images postées au dessus qui prouve par A + B que tu racontes n’importe quoi.<br /> Ton seul argument c’est « euh c’est pas possible d’avoir une meilleur image en baissant la résolution ». Je te prouve que si c’est possible, et tu me ressors quand même la même chose. C’est une histoire sans fin, t’as tord tu ne peux pas le reconnaitre. Basta pour moi je vais pas m’entêter avec une personne qui a des préjugés et qui pense encore comme un mec des années 90.
phoenix2
Ahhh là c’est logique, déjà le fxaa est à éviter à cause de l’effet de floue, meme en désactivant le AA c’est mieux et on gagne des fps et en fluidité,<br /> En ce qui concerne le dlss en 1080p t’a tout a fait raison parceque si on baisse la résolution on passe au 720p et c’est dégueu, alors que si on est sur du 4k en baissant on passe au 1440p c’est moins perceptible, et c’est là qu’est la supercherie du dlss/fsr, pour les non initiés c’est la solution magique en un clic, alors que c’est faisable en manuel en baissant la résolution du jeux tout simplement et en gardant les options en ultra et le plein écran, voila.
Korgen
Vous me faites marrer les gars, vous allez nous dire qu’en plein dans l’action d’un jeu vous passez votre temps à coller le nez sur l’écran pour essayer de mater des détails minuscules situés en arrière plan à 3 km de votre personnage ?
Feunoir
Oui mais la tu te prends quand même l’aliasing et le flou de l’upscale<br /> Quand j’ai pris une tv 4K j’avais l’optique de me faire une config 4K mais le covid/crise de stock m’ont poussé a utilisé ma rtx2600 que j’avais pris avant que pour du full hd quasi 2ans de +<br /> Resultat quand j’ai voulu me faire le dernier dlc atlantis d’Assassin’s creed Odyssey je n’avais pas assez de puissance pour de la 4K et là oui j’ai utilisé ta méthode. Mais son problème c’est qu’elle fait aussi du flou en + de l’aliasing j’ai dû utiliser les filtres sharpen du pilote et un autre pour contrebalancer ces défauts (en amplifiant même un peu l’aliasing), j’ai bien du passer 2heures pour trouver un niveau de qualité a peine potable.<br /> Puis maso j’ai voulu faire AC valhalla : testé la même méthode mais là la qualité de l’eau devenait vraiment dégueux quelque soit l’upscale, même mineur, mon drakkar voguant sur une mer de n’importe quoi (jeu que sur terre cela aurait pu passer ) j’ai fini par jouer le jeu entier en 4K natif à 30FPS en taillant dans les options <br /> Avec la nouvelle config ca va bien mieux forcement, mais la 4k est toujours un challenge. Sur horizon zero dawn et everspace2 le dlss fait un bon boulot et en 15minutes (le temps de faire qq test qualitatif/perf quand même) j’étais en jeu sans me prendre plus la tête.<br /> Je préférerais virer le TAA et avoir qq escaliers (petits en 4K) qu’avoir le flou qu’il apporte mais je ne sais trop pourquoi il semble être nécessaire(pas de off) d’avoir de l’antialiasing sur les derniers jeux que j’ai joué (sachant aussi que la profondeur de champs et le flou de mouvement sont les premiers trucs que je dégage dans les options)<br /> DLSS, FSR et même la version Intel que je n’ai pas encore approché, cela a le mérite d’exister et cela se test si besoin. Nvidia en rajoute un peu trop mais au final cela a rendu le passage du cap full hd vers 4K plus facile et juste ça c’est déjà un bon point pour ces technos.
clockover
Oui avec le DLSS c’est plus flou…<br /> Le 4k natif reste le plus juste et le plus qualitatif.<br /> Croire que de l’upscale ou même maintenant de la génération d’image intermédiaire améliore la qualité. C’est un peu du niveau de les experts et zoomer dans le reflet d’une paire de lunette pour reconnaitre la tête d’une personne…<br /> Après il y a les gouts et couleurs, je ne dis pas. Mais le 4k natif reste le plus exact et donc le plus qualitatif.
narco
Tu ne sais clairement pas de quoi tu parles. le dlss 3 utilise (en partie) ce qui se fait déjà depuis longtemps sur les TV. l’upscaling 1080p en 4K ça te parle? le résultat est égale voir supérieur dans certains cas. (TV haut de gamme)
narco
ce n’est pas le sujet xD
schmurtzm
On a ce genre de manipulations commerciales sans arret dans le domaine de l’informatique quelques exemples qui me reviennent :<br /> l’iphone 4 ne supporte pas siri contrairement à l’iphone 4s : un minuscule patch dans cydia permettait de l’activer .<br /> A l’époque de WindowsXP : Crysis nécessite obligatoirement Windows 7 pour avoir les nouveaux effets de lumière : le changement de quelques fichiers directx dans le répertoire du jeu permettait de l’activer avec un stabilité parfaite.<br /> les nouveaux core i5 8 e generation ne sont pas compatibles avec Windows 7 : le trafficotage des drivers fournis pour Windows 10 permet de les utiliser (ainsi que les intel HD)<br /> Windows 11 nécessite une puce TPM pour être installé → une clé de registre permet finalement de ne pas acheter une nouvelle configuration.<br /> etc, etc…<br /> Bref tous les moyens sont bons pour segmenter des produits similaires et créer des besoins artificiels pour vendre plus. Chez nvidia il est assez incoyable de voir qu’un 3060 arrive enfin au niveau d’une 1080 datant de 2016 !<br /> Autrement dit je ne serai pas étonné qu’il soit possible d’activer le FSR sur une ancienne génération et d’ailleurs j’affectionne particulièrement le recerse engeenring qui peut-être fait sur ce genre de technologies. C’est comme celà que l’on obtient des logiciels comme l’excellent Moonlight ou RDPwrapper.
bennj
Non mais vous regardez les liens que je poste avant de commenter ou comment ça se passe ? Ça devient fatiguant à force.
clockover
Un rendu upscalé ou supposé par une IA est toujours moins bon qu’un rendu natif. Point bar.<br /> Vous le trouvez plus flatteur. Très bien pour vous mais ça n’en fait pas une vérité…
phoenix2
T’a tout saisi, l’entourloupe elle est là , dans le passage 1080p/1440p au 4k, les cartes meme puissantes peuvent pas suivre le 4k 60fps+ en ultra, donc ils ont trouvé cette triche qui marche mais, de là a faire croire que c’est révolutionnaire, c’est ce que je dénonce moi, la masse a tout de suite gobé le truc, mais c’est pas du natif et ne le sera jamais, c’est une solution provisoire, le temps que les cartes montent en puissance dans une dizaine d’années, pendant ce temps là tout le monde jouera avec une résolution truquée.
bennj
Donc c’est comme le mec au dessus, vous avancez des vérités sans aucune preuve derrière. Contrairement à ce que moi j’avance. Sérieux j’ai l’impression de discuter avec des pro Trump. C’est ridicule et lamentable.<br />
uNReaLx77_1_1
Sur les 2 dernières images on voit que le dlss est plus flou.<br /> Ensuite quand tu joues ça ne se voit pas, et passer de 60 a 100+ FPS, tout en gardant une très bonne qualité est évidemment un gros plus, donc non ce n’est pas une supercherie, je l’utilise en jouant et franchement personne ne peut nier que c’est top ce dlss. Tout simplement.<br /> Après ça va aussi dépendre des jeux auxquels vous jouez donc chacun voit midi a sa porte, ça sert a rien de vous tirer dans les pâtes.
clockover
Mais quelle preuve ?<br /> Si tu penses que l’upscaling et la génération d’image intermédiaire améliore la qualité tant mieux pour toi. Le marketing a bien bossé !
svenos
Et sinon tu as testé avec tes propres yeux? Parcequ’entre le ghosting, le clipping et le flou des textures sur les plan latéraux, le scintillement des frames… l’image est moins fine en plus de ça. Je parle même pas d’input lag…<br /> Oui c’est bel et bien une belle esbrouffe marketing. Mais sans ça on oublie le ray tracing, et hélas sans une 4090 et même avec cette carte tu restera à 45fps en 4K sous cyberpunk au max RT sans DLSS.<br /> Et oui c’est clairement moche par rapport au natif. Si tu as l’habitude du pc tu devrais t’en être rendu compte, au pire rapproche toi un peu de ton écran pour vérifier par toi même.<br /> Tu verras pas la différence sur une video youtube ultra compressé, même à 12k, c’est absurde ce que tu dis. Mais visiblement toi aussi tu as été enfumé.<br /> DLSS + Ray tracing c’est un peu une forme de schyzophrénie. Je préfère encore prendre le DSR et perdre des fps, cette méthode d’upscale n’a pas les défauts du DLSS.<br /> Après que tu dise c’est plus beau avec l’upscale DLSS 4K qu’en 1080p oui c’est vrai, mais c’est sans compté tout les défauts mentionnés précédemment.
kast_or
A noter que les capacité de reconstitution des visages a fait des gros progres.<br /> Voici un exemple qui a 3 ans (j’imagine que ça s’est encore amélioré depuis)<br /> 1024×964 281 KB<br />
kast_or
Je ne rentrerai pas dans le débat si oui ou non l’image du DLSS (ou FSR) est mieux que le natif ou non.<br /> Mais techniquement, on est déjà capable de fusionner plusieurs images pour en obtenir une nouvelle plus détaillée.<br /> Ces technos fonctionnent finalement très bien mais on un coût :<br /> artefacts<br /> de la latence<br /> une mauvaise image quand les conditions sont pas bonnes<br /> potentiellement une sensation de flou suivant les zones<br /> La question n’est finalement pas de savoir si oui ou non on est capable de produire des images de meilleures qualité que l’image native (la réponse est oui) c’est plutôt de savoir si le cout en vaut la chandelle<br />
clockover
Bien sûr, je ne dis pas le contraire.<br /> J’ai dit que le résultat est et restera toujours inférieur au calcul réel.<br /> Il y a:<br /> -des différences entre ce qui est généré et ce qui devrait être réellement<br /> -des artefacts dégeulasses
Voir tous les messages sur le forum

Derniers actualités

Une panne mondiale frappe le géant du streaming Netflix
Samsung publie (enfin) un correctif pour ses SSD 980 PRO
Discord perturbe la fréquence mémoire des GeForce : corrigeons le problème
Ear (2) : les futurs intras de Nothing fuitent en photo, petits ou grands changements ?
AMD annonce le prix et les dates de disponibilité de ses Ryzen 7000X3D
Unpacked 2023 : Samsung dévoile ses nouveaux Galaxy Book3, prêts pour un face-à-face avec Apple ?
Samsung Unpacked 2023 : meilleurs... et plus chers, découvrez les nouveaux Galaxy S23
Artifact, cette appli propulsée par l'IA à mi-chemin entre TikTok et Google News
Comment ChatGPT a changé les plans de Google
Mars : Perseverance a complété sa réserve de secours d'échantillons
Haut de page