Le DLSS3 de NVIDIA adopté bien plus vite que le DLSS2 : Diablo IV prévu dès son lancement

Nerces
Spécialiste Hardware et Gaming
16 mars 2023 à 16h30
32
© NVIDIA
© NVIDIA

Les techniques de super-échantillonnage constituent plus que jamais le futur des cartes graphiques. NVIDIA n'entend pas perdre son leadership.

Dans sa première version, le Deep Learning Super Sampling (DLSS) de NVIDIA n'avait pas connu un grand succès. La société a toutefois vite appris de ses erreurs et la sortie de la V2 a été saluée par une grande majorité des joueurs, lesquels peuvent maintenant compter sur DLSS3.

DLSS 1/2/3 : bientôt 400 jeux et logiciels

Confrontés aux limites physiques des GPU et à la difficulté de faire progresser toujours et encore les performances, les principaux acteurs du marché de la carte graphique empruntent tous le chemin du super échantillonnage.

L'idée est simple, il s'agit de faire calculer une scène par la carte graphique dans une définition d'image inférieure à celle qui sera réellement affichée et de laisser le redimensionnement à des algorithmes plus ou moins efficaces. Dans le cas de NVIDIA, c'est ce qui justifie l'usage du terme Deep Learning, l'intelligence artificielle est aussi mise à contribution.

Aujourd'hui, alors que NVIDIA peut se targuer d'approcher les 400 titres (jeux et applicatifs confondus) sur les trois versions de DLSS, AMD est encore en retrait avec 250 titres présents et à venir concernés par le FidelityFX Super Resolution (FSR) 1/2. Enfin, le XeSS d'Intel est trop jeune pour se hisser au niveau de ses concurrents.

Diablo IV, Forza Horizon 5, Redfall…

Ce qui impressionne actuellement, c'est la vitesse des annonces et des prises en charge. Bien sûr, AMD y va logiquement de ses multiples annonces et le FSR3 devrait encore accélérer les choses, mais NVIDIA semble aller encore un peu plus vite.

Nos confrères de WCCFTech soulignent que le DLSS3 est adopté sept fois plus rapidement que le DLSS2 et le rythme ne semble pas devoir fléchir bien au contraire. Ainsi, NVIDIA vient d'indiquer que le Forza Horizon 5 de Playground Games allait très prochainement être compatible DLSS3, mais surtout que Diablo IV lui-même sera estampillé DLSS3 dès sa sortie le 6 juin prochain.

Bien sûr, NVIDIA ne s'arrêtera pas en si bon chemin. Elle a confirmé, par exemple, que Redfall aura droit au traitement DLSS3 à son lancement le 2 mai. De plus, plusieurs jeux indépendants seront aussi pris en charge, ce sera le cas de Deceive Inc., Gripper, Smalland: Survive the Wilds et THE FINALS.

Source : WCCFTech

Vous êtes un utilisateur de Google Actualités ou de WhatsApp ? Suivez-nous pour ne rien rater de l'actu tech !
google-news

A découvrir en vidéo

Haut de page

Sur le même sujet

Rejoignez la communauté Clubic S'inscrire

Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.

S'inscrire

Commentaires (32)

cclude
Tous le monde s’en fou, c’est xbox pass maintenant pour tout le monde…mdr
phoenix2
On s’en fou, c’est une pure fumisterie ce truc, ça équivaut à baisser la résolution dans le jeux d’un cran tout en gardant le plein écran, tout le monde peut le faire en changeant ça dans les paramètres graphiques, oui ça augmente les fps, mais ça n’égalera jamais la résolution native, bordel, j’arrête pas d’expliquer ça, les gens sont devenu idiots à ce point ou quoi !?
Blap
Faudrait ptet lire les reponses que les gens te donnent a chaque fois aussi.<br /> L’idiot n’est pas toujours celui qu’on croit.
Popoulo
phoenix2:<br /> équivaut à baisser la résolution dans le jeux d’un cran tout en gardant le plein écran<br /> En théorie oui mais très raccourci.<br /> phoenix2:<br /> tout le monde peut le faire en changeant ça dans les paramètres graphiques<br /> Rien ne t’empêche en effet. Mais qu’est-ce que c’est moche…<br /> phoenix2:<br /> ça n’égalera jamais la résolution native<br /> On s’en rapproche pas mal là. Après faut essayer pour s’en rendre compte.<br /> Le DLSS n’est pas qu’un simple switch de résolution. Depuis la version 3, ce sont les frames qui sont reconstituées alors qu’avant ce n’était juste qu’une partie des pixels. Y a assez de docs techniques y faisant référence pour voir comment ça fonctionne du moment qu’on s’y intéresse.
Popoulo
Comme souvent. Surtout que la cinématique montrée, à la base c’est du précalc.
jvachez
Dans Hogwarts Legacy il y a un truc dans le genre ça marche même avec une GTX.
phoenix2
Commentaire bidon, peut être que tu sais meme pas de quoi ça parle, t’est là juste pour attaquer les gens gratuitement, au lieu de commenter, et en effet t’a raison « l’idiot n’est pas toujours celui qu’on croit » parfait exemple !!
phoenix2
Peut être que ça a évolué avec le dlss 3, mais je m’y intéresse plus depuis un moment, mais le fait est que ça n’égalera jamais le native, c’est surtout une technique pour ceux avec une télé 4k et qui n’ont pas la carte graphique qui peut arriver a faire du 4k60fps+ !!
LifeNight
J’espère que ce n’est qu’une techno de transition.<br /> Je comprends qu’on l’utilise pour jouer en 4K avec du ray tracing en attendant des cartes graphiques plus puissantes qui pourront faire tourner tout ça sans dlss mais j’espère que ce ne sera pas un prérequis obligatoire pour éviter d’optimiser convenablement un jeu.
pecore
Oui, à la base c’est prévu pour compenser la perte importante de performance du Ray Tracing et revenir a un nombre de FPS correct même en activant le RT.<br /> En gros on « embelli » l’image au prix du framerate d’un coté et on remet du framerate au prix de la qualité visuelle de l’autre coté. C’est génial.<br /> Ou alors, on active pas le RT et on a nul besoin de DLSS. Quoi qu’il en soit, ce lobbing à grand coup d’aides financières de Nvidia autour du DLSS 3.0 montre deux choses : primo, ils ont décidé enfin de mettre le paquet sur les RTX 4000 et secondo, qu’ils n’ont que cette techno comme argument pour différencier les RTX 4000 des autres cartes, alors ils en usent et abusent.<br /> Après, pour rejoindre @phoenix2, si les gens sont assez bêtes pour marcher là dedans, ils auraient tort de se priver.
bennj
Et pourtant il y a quelques mois t’avais l’air bien sur de toi vu tes commentaires : Commentaires : Il active le DLSS 3 sur sa RTX 2070 pourtant incompatible et double ses performances sur Cyberpunk 2077 - #6 par AtomosF<br /> Mais c’est bien t’avoue enfin qu’en fait tu ne connaissais pas ton sujet malgré tes dires.
Core-ias
Aujourd’hui, alors que NVIDIA peut se targuer d’approcher les 400 titres (jeux et applicatifs confondus) sur les trois versions de DLSS, AMD est encore en retrait avec 250 titres présents et à venir concernés par le FidelityFX Super Resolution (FSR) 1/2. Enfin, le XeSS d’Intel est trop jeune pour se hisser au niveau de ses concurrents.<br /> Ils ont chaqu’un leur Glide maintenant, même Intel.<br /> C’est juste pour faire comprendre que c’est du réchauffé du reste d’il y a presque 20 ans.
ygloo_one
Le DLSS 3, l’insertion de fausses images entre deux vraies images, a été vu comme un scandale il y a quelques années, déjà nVidia. De nos jours, avec les génies qui sortent de l’éducation nationale et des écoles de journalistes, ça passe crème… whaou fps x2! Quelle est grosse ma … !!<br /> Ce qui est cool avec ce truc, c’est qu’ils peuvent en mettre plus, DLSS 4, x3, DLSS 5 : x4, DLSS 50: x 49. Allez, quand un ‹ journaliste › osera dira la fumisterie de ce truc qui existe depuis 20 ans ?<br /> Tiens nvidia devrait payer les logiciels de test pour ajouter un 0 au fps affiché. Et augmenter encore plus les prix. Vous le valez bien les nounouilles qui veulent pas travailler, pas penser, juste se pleindre et demander la tété de marianne.
Core-ias
ça fait juste 3 technologies dédiés consoles de jeux. Donc pour les « petit budget » et qui change pas souvent de configuration.<br /> tu as un commentaire qui sait convaincre.
pecore
Si j’ai bien compris, il y a une grosse différence même de philosophie entre les DLSS 1 ou 2 et le DLSS3.0, au point que je me demande si le terme de DLSS n’est pas usurpé.<br /> Car si j’ai bien compris, les deux premier DLSS reviennent à upscaller une image basse résolution en une image équivalente à une résolution plus haute. Le gain de FPS se faisait alors dans la puissance de calcul moins importante pour afficher une image basse résolution upscallée qu’une image en haut résolution sans upscalling. On peut alors parler d’une vraie prouesse technique permettant de rendre une image basse résolution presque aussi belle qu’une image haute résolution, mais pour un cout en puissance de calcul moindre.<br /> Ce n’est pas le cas du DLSS 3.0, qui ne fait que rajouter une image dégradée entre deux images normales. Le nombre d’images est donc artificiellement augmenté, ce qui, in fine, permet en effet d’augmenter la fluidité mais en gardant à l’idée qu’un certain nombre d’images seront des « fausses » images.<br /> Est ce que les personnes qui payent 1400, 1600 ou 2000€ leur CG payent pour se faire balancer des fakes ? De même, peut on en toute honnêteté parler d’augmentation du nombre de frames lorsque la moitié de ces frames ne sont pas des images calculées mais des copies, des projections générées par algorithme.
ar-s
Franchement j’ai eu la chance d’avoir accès à la beta fermée et avec ma gtx1080 porté par un Ryzen 3700x (et 32go de ddr) c’était déjà très beau (en QHD) et pourtan loin d’être top optimisé.<br /> Donc tant mieux s’ils ont amélioré les rendus dlss mais sincèrement voir l’image avec/sans RTX est ridicule, vraiment.
cmppc
@phoenix2 tu devrais tester dlss3 au lieu de critiquer pour rien … je suis 100% sur que tu n’a jamais tester dlss3 de ta vie sinon tu t’aurais rendu compte que l’image est beaucoup mieux qu’en native dans la plus part des cas. un brin d’herbe au loin va etre beaucoup moin flou avec dlss que en native. un zoom sur une texture inferieur a 4k va etre beaucoup plus beau qu’en native bref j’imagine que tous les jeux utilise des texture 16k? sinon tu t’aurais rendu compte que ton commentaire n’a ni queue ni tete
pecore
Je ne sais pas pour @phoenix2 mais vu qu’il faut une RTX 4000 pour tester le DLSS 3.0, je te confirme que je ne suis pas près de le faire. Après, il y a les tests et les vidéos comparatives pour ne pas mourir complétement idiot.<br /> Mais j’aimerai savoir si, lorsque tu dis supérieure à une image native, tu parles de l’image dans la résolution d’origine ou d’image en 4K natif ?
phoenix2
Mon commentaire a une queue, le dlss c’est pas pour embellir l’image, mais plutôt augmenter les performances tout en gardant la meme qualité et ce meme en baissant la résolution, pour quelqu’un qui dis avoir testé, t’est à coté de la plaque !!
jackals
Ça à bien évolué le fsr ressemble plus à ta définition. Le dlss n’égale pas la résolution native, dans le plupart des jeux que j’ai testé il surpasse les résolutions natives. C’est simple dès que les jeux sont compatible je l’active. Plein de comparaison son disponible entre la résolution native et depuis là v2 c’est soit équivalent soit à l’avantage du dlss.
Jona-85
Possédant une rtx 2070 depuis sa sortie,le DLSS 1.0 était une catastrophe visuel (effet de flou)sur des titres comme métro Exodus ou bf5. Par contre avec la version 2.0 j’ai été bluffé par la qualité d’image qui est aussi propre que la native (à partir du 1440p) voir plus haut sans la sensation d’un « upscaling » fait à larrache avec en plus un gain fps impressionnant. En Lisant si dessus les commentaires de « pecore » je ne suis pas vraiment emballé par ce fameux DLSS 3.0. Je verrai en pratique vu qu’une 4070 m’intéresse pour pouvoir bénéficier de plus de puissance (jeux utilisant le UE5) + de vram, activer quelques options RT intéressant et de continuer à profiter de cette techno « DLSS 2.0 » qui,pour ma part est plus impressionnant que le RT
ilyon
C’est extraordinaire: on a aujourd’hui des cartes graphiques à la puissance phénoménale mais on nous sert des gimmicks pourris comme des révolutions™ à la pelle.<br /> Et la foule est en délire et est prête à payer sa carte graphique à 1000 balles devant l’esbrouffe d’NVIDIA. C’est magique.
tommythefreak
C’est hallucinant de raconter autant d’inepties en si peu de mots. Je joue en 4K depuis 2016, je suis passé par chaqué génération de cartes, donc je pense être plutôt bien placé pour te dire que non seulement la techno d’upscaling DLSS a égalé le natif, mais l’a aussi dépassé sur certains aspects. Je l’active systématiquement dès qu’il est disponible, pas uniquement pour le gain de perfs mais parce que je préfère le rendu. Quant à la génération de frames (DLSS 3), l’énorme majorité des gens qui la critiquent ne l’ont pas testé eux-mêmes et se basent sur des vidéos au ralenti hyper compressées ou des captures d’écran. Alors qu’à l’usage et si c’est bien implémenté, les artefacts sont tellement rares que l’expérience est bien supérieure au natif avec un framerate divisé par 2 ou par 3.
ilyon
Absolument, le terme DLSS3 est usurpé mais la marque DLSS a fait son chemin, c’est de l’upscaling de riche (à contrario de l’upscaling de pauvre du FSR et de l’upscaling de classe moyenne du XeSS).<br /> Je monte des PC tous les jours, et comme je suis en France, je monte essentiellement du NVIDIA. Et je teste quotidiennement, pour l’instant je n’ai jamais trouvé de raison au DLSS 2 et 3 autre que gagner des perfs au détriment de la qualité quels que soient les jeux, avec parfois des fulgurances: je n’ai jamais trouvé de DLSS supérieur au natif.<br /> EDIT pour les fanboys: FSR et XeSS sont tout aussi crasseux, avec aussi leurs fulgurances.<br /> EDIT 2: à ne pas confondre avec le DLAA qui lui apporte un gain de qualité réel et constaté.
Blap
Ca fait partit de mon taff, ca ne veut pas dire que je ne pourrais pas ne rien y connaitre mais apres plus de 10 ans je pense que les employeurs le verraient
ElManu
pour le coup c’est toi qui n’a pas tout compris je pense.
kervern
il a jamais été dit cela amélioré tu joues en 1080P mais le jeu est upscacler en 4k avec les textures sont amélioré pour s’adapté au 4k comme si ct des textures 4K<br /> certain jeu DLSS qui ont full option te demande carément de choisir une définition pour tel upscale, attention c’est pas ce que tu veux c’est des profils genre 1580/4160 1080/4160 ou 1360/2580
Feunoir
En 4k quand on a le choix TAA ou DLSS, la plupart du temps le DLSS donne une image moins floue lorsque le traitement de l’upscale fait un super boulot.<br /> Oui cela utilise une définition inférieure, mais faut tester car parfois c’est mieux.<br /> Je n’ai pas été convaincu en full hd, sur un metro exodus par exemple c’était baveux, le dlss du full hd descend peut etre trop bas en définition pour que l’upscale amelioré soit efficace?<br /> Mais en 4K le dlss part d’une définition déjà assez potable.<br /> Je teste donc , sans antialiasing, avec les antialiasing proposés (qui font souvent trop de flou) et avec le dlss (voir le fsr ) qui peuvent dégager les escaliers, avoir une image moins floutée et … être plus rapide
mikawell
Ça déjà battu le native res. Documente toi un peu.
Core-ias
SLI et Crossfire de 2, 3 ou 4 CG.<br /> Il y en a de moins en moins au delà de 3 CG. Pourtant j’ai vue des alim PC de 2000 W.<br /> La CM n’est pas vraiment donnée non plus, et il devrait même y avoir un ratio pour éviter les CPU trop faible dans ses cas. Un SLI ou Crossfire de 4 GPU c’est déjà avoir besoin un ou deux i9 ou R9 / Threadripper pour un confort d’usage optimale.<br /> Un peu plus de 4000 € la dernière config que j’ai voulu assemblée. Pourtant c’était pas du SLI ou Crossfire et il y avait qu’un seul CPU, donc un PC pour 1 an et quelques mois.
pecore
Je constate que beaucoup portent le DLSS aux nue et tant mieux pour eux s’ils en sont contents. Est ce que c’est de la méthode coué, du fan-boyisme ou un avis objectif, je ne saurai le dire, n’ayant pas accès à cette technologie.<br /> En lisant et en écoutant les tests sur le net, j’ai surtout eu l’impression que c’était une question de perception des uns et des autres, qu’il pouvait y avoir des cas où cela peut avoir un effet positif d’être dans un résolution plus basse upscallée mais je n’ai vu aucun consensus se dégager à ce niveau.<br /> L’avis général est plutôt qu’on ne fait pas tellement la différence entre avec et sans à condition de ne pas passer d’une résolution trop basse vers une résolution beaucoup plus haute et de ne pas utiliser un réglage trop économe en ressources et ça c’est déjà très bien.
Core-ias
Resize bar<br /> Personne ici n’en parlera vraiment.<br /> 4 ou 6 ou 8 ou 12 ou 16 ou 20 Go de mémoire graphique ?<br /> Pour charger des textures même compressées il n’en faut pas autant qu’on le pense.<br /> Avant la compression c’était principalement car il n’y avait pas suffisament de place mémoire.<br /> Une console de jeux affichera des détails moindre par rapport à celui d’une CG bien plus costaude.<br /> Pourtant, une optimisation du code source pourrait faire le contraire dans certain cas.<br /> Le PC à l’avantage d’avoir une large gamme de performances pour les CG de façon à convenir au plus exigent.
Voir tous les messages sur le forum