Le FSR 2.0 d'AMD est aussi efficace que le DLSS 2.0 de NVIDIA d'après les premiers tests

12 mai 2022 à 15h55
21
© AMD
© AMD

Annoncé cette semaine en même temps que les nouvelles cartes graphiques RX 6000, le FSR 2.0 d'AMD s'apprête à faire des émules.

Nos confrères chez TechPowerUp ont eu l'occasion de tester la version 2.0 de la technologie open-source de super-échantillonnage garantie sans machine learning de la Team Rouge. Et ces premiers tests semblent l'élever sur de nombreux points au même niveau que le fameux DLSS 2.0 de NVIDIA.

Une mise à jour digne de ce nom

Probablement la nouveauté logicielle la plus attendue côté AMD, le FSR 2.0 ne va pas tarder à être déployé sur les jeux déjà sortis parmi une dizaine supportant la technologie.

Pour rappel, l'idée de la Team Rouge avec le FSR est de proposer une solution de super-échantillonnage beaucoup plus accessible que le DLSS. Le FSR 2.0 peut ainsi fonctionner même sur des cartes graphiques relativement anciennes, peu importe qu'elles soient estampillées NVIDIA ou AMD.

Mais là où le FSR 2.0 fait mieux que son aîné, c'est qu'il utilise cette fois une méthode d'upscaling temporel et non spatial comme ce dernier. Une méthode plus complexe à implémenter, qui requiert donc un effort supplémentaire de la part des développeurs.

La technologie d'AMD se rapproche en ce sens fortement du DLSS de NVIDIA. Or, si les développeurs ont au préalable travaillé à intégrer celui-ci à leur jeu, l'implémentation du FSR 2.0 peut quant à elle se compter en seulement quelques jours.

Des résultats à la hauteur du DLSS 2.0

En avant-première, certains ont ainsi pu tester le FSR 2.0 sur Deathloop, l'un des premiers jeux à supporter cette nouvelle technologie. Ces tests ont été réalisés sur des RTX 3060 et RTX 3080, ce afin de comparer plus facilement DLSS 2.0 et FSR 2.0.

Selon les premiers retours, la nouvelle technologie d'AMD se montre largement à la hauteur de celle de NVIDIA. Elle afficherait même de meilleurs résultats en mode Qualité en 4K. Le FSR 2.0 semble toutefois perdre pied face au DLSS 2.0 en mode Performance.

Les premiers tests déplorent en effet un ghosting assez présent. Comme le DLSS 2.0 en son temps finalement. Le FSR 2.0 étant encore tout jeune, il lui reste donc encore une certaine marge d'amélioration.

Toujours est-il qu'il est assez impressionnant qu'une technologie open-source dispensée de l'aide du machine learning puisse tenir aussi bien tête au DLSS. La domination des cartes graphiques RTX sur le terrain du super-échantillonnage pourrait bien arriver à son terme.

Source : TechPowerUp

Robin Lamorlette

Fan absolu de tech, de films/séries, d'heroic-fantasy/SF et de jeux vidéos type RPG, FPS et hack&slash qui se shoote à coups de lore sur Star Wars, The Witcher, Cyberpunk, Game of Thrones et Donjons &...

Lire d'autres articles

Fan absolu de tech, de films/séries, d'heroic-fantasy/SF et de jeux vidéos type RPG, FPS et hack&slash qui se shoote à coups de lore sur Star Wars, The Witcher, Cyberpunk, Game of Thrones et Donjons & Dragons/Baldur's Gate 3.

Lire d'autres articles
Vous êtes un utilisateur de Google Actualités ou de WhatsApp ? Suivez-nous pour ne rien rater de l'actu tech !
google-news

A découvrir en vidéo

Rejoignez la communauté Clubic S'inscrire

Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.

S'inscrire

Commentaires (21)

Bombing_Basta
Toujours est-il qu’il est assez impressionnant qu’une technologie open-source dispensée de l’aide du machine learning puisse tenir aussi bien tête au DLSS.<br /> J’vois pas en quoi c’est étonnant.<br /> Ce qui m’étonne moi, c’est qu’il y en ai encore pour croire au bullshit marketing de nv, après la tentative physX, et, toujours d’actualité, l’arnaque gsynch.<br /> Non y’a pas besoin de carte dédiée pour gérer la physique, merci AMD, non y’a pas besoin de puce à 300 balles pour gérer le VRR, merci AMD, non y’a pas besoin d’IA pour gérer un upscaling de qualité, merci AMD.
Yorgmald
Autant je suis globalement d’accord, autant pour la partie physic je ne le suis pas.
Yann_Oldies
En fait à l’époque pour les quelques jeux utilisant NVIDIA PhysX (genre je me rappelle du premier Batman) les GPU n’étaient simplement pas en leur temps ‹ assez › capables de faire tourner les jeux avec PhysX en ultra. Mais Ca n’avait aucun sens de mettre une deuxième carte pour ça, juste à attendre un ou deux cycles pour que ce soit géré nativement.
crush56
La gestion de la physique aussi poussée nécessitait réellement une partie hardware spécifique, d’ailleurs avant qu’Nvidia rachète la techno on devait acheter une carte pci physx si mes souvenirs sont bons.<br /> Mais les gens se sont simplement rendus compte qu’il n’était pas nécessaire d’avoir une physique aussi poussée, disons que ça n’apportait pas grand chose en terme de gameplay vu le sacrifice en performances.
Bombing_Basta
On ne devait rien du tout.<br /> Et des moteurs de jeu comme Source (plus précisément Havok) ont démontré toute l’inutilité de ces cartes, sous pavillon NV ou pas.
Pernel
Pour la VRR, je suis moyennement d’accord. Le FreeSync est très permissif, peut être trop, certains écrans FreeSync ont un très mauvais comportement en VRR avec un support aléatoire et limité (souvent 48-60Hz) et d’autres le font beaucoup mieux. Par contre, le GSync (qui est très cher, ça on est d’accord) assure par contre des restrictions plus … restrictives, et donc par conséquent, ça fonctionne toujours très bien. Après on est d’accord, NVidia se sucre un max, comme toujours.<br /> Pour avoir eu un écran FreeSync 165Hz (plage de 48 a 165Hz), le support était aléatoire, des fois, c’était très agréable, et par moment insupportable (ne fonctionnait tout simplement pas), et les rares fois où je descendais sous les 48Hz, ça ne fonctionnait pas, logique. Depuis je suis passé à un GSync 120Hz, c’est pas parfait (dans le cas où parfait voudrait dire quelque chose de concret), mais pas de surprise, aucun souci. Les rares moments où le GPU ne suit pas (faut le vouloir mais ça peut arriver vu l’optimisation chez certains développeurs …), ça reste quand même agréable sous les 60, ça vaut pas un 60+ mais « ça va ». Après c’est trop cher pour ce que c’est.
Pernel
Il me semble que le Source était couplé au moteur physique Havok (encore largement utilisé de nos jours), mais ça rejoint ce que tu dis.
Bombing_Basta
Oui je viens de préciser pour plus de clareté.
Garden_Dwarf
J’applaudis. Une démarche qui va à contresens de la tendance « ça ne tourne pas assez vite ? Achetez du nouveau matos », il faut le noter tout de même.<br /> Après, j’ai - la chance d’avoir - une RTX 3XXX, donc pour moi peu importe qui l’emporte.
GrisburT
Mouais on attendra les testes sur d’autres jeux, car comme tout fabriquant, on montre bien ce qui marche pour se vanter. Après les gens faut arrêter avec votre fanboyisme AMD, ils seraient leader il auraient un autre comportement, et merci à Nvidia de faire des trucs bien comme de la m*rde pour justement provoquer la concurrence
Pernel
C’est vrai que NVidia fait de la m*rde dans le but de provoquer la concurrence ^^<br /> C’est pas parce qu’on est content de ce qu’à fait AMD qu’on est fanboy, ça n’a rien à voir. Par exemple Garden_Dwarf a une RTX et félicite AMD, j’ai moi-même également une RTX (une 3090 si tu veux savoir), et le fait qu’AMD progresse énormément sur le FSR je trouve ça génial. Il m’arrive d’utiliser (rarement) le DLSS, sur des jeux genre CP c’est pratique, mais les technos proprio, ça limite quand même vachement les choses, ça te cantonne à rester chez eux, comme le fait Apple par exemple. Et même s’il fait peu de doute que dans les semaines ou mois à venir NVidia fera une MAJ pour reprendre le lead, ça n’empêche qu’il est vrai qu’AMD a fait du super boulot, qu’on soit chausser chez eux ou chez les autres.<br /> C’est justement ne pas reconnaitre le travail effectué par X ou Y qui fait le « fanboyisme », pas le contraire.
pecore
crush56:<br /> …ça n’apportait pas grand chose en terme de gameplay vu le sacrifice en performances.<br /> Ça me rappelle un truc récent, le Ray… quelque chose. Ça va me revenir.
crush56
Si tu voulais jouer à un jeu utilisant Physx, si, tu devais avoir la carte Physx sous peine d’avoir des performances abominables, et Physx étaient treeeeees loin devant havoc en terme de physique.<br /> Mais très peu de jeu l’utilisaient au final
Voigt-Kampf
…Ban ? Pour mieux masquer les défauts trop brillants ?
pecore
Je plussoie sur @Pernel.<br /> Ce n’est pas tant la qualité du produit que beaucoup d’entre nous saluent, que la démarche globale d’AMD qui vise à proposer des outils ouverts à tous les matériels aux lieux de les réserver à ses seules cartes, comme d’autres le font. Des outils aussi qui permettent de rallonger la durée de vie des produits au lieu d’inciter à en changer tous les quatre matins.<br /> En cette période de pénurie et globalement dans un contexte mondial où la surconsommation commence à devenir un vrai problème, on ne peut qu’approuver.
stratos
si ça permet de faire durer les vieux GPU plus longtemps, ça me dérange pas de jouer en 900px upscale 1080 sur mon laptop de gamer si ça évite de remettre de l’argent, et ma tour vu les prix ma 970 va encore rester un temps
Pernel
Sans parler des consoles qui vont vraiment en bénéficier (et pousser les devs a l’utiliser).
Popoulo
Les FSR était déjà vraiment pas mal dans la version précédente.<br /> Maintenant, avec ce genre de technologie, les studios vont encore plus se toucher la nouille pour optimiser les jeux. Quand on voit la puissance des CG, proco et ce qu’ils en font… Mais bon, faut que ça aille vite, que les jeux sortent même s’ils ne sont finis alors hormis bâcler, pas vraiment d’autres alternatives.
dante0891
A part plus de FPS je trouve que l’utilisation du FSR dégrade la qualité graphique d’un soft.<br /> Est-ce moi ou est-ce un fait avéré ?<br /> J’ai juste essayé ce système sur CP2077 et je trouvais le décor en FSR plus dégueu que sans. Mais sans effectivement j’étais sur du FPS moins constant.
SPH
Je radote peut être mais : je ne vois aucune différence dans la vidéo. <br /> Et puis, comme le dit l’article, comme NVidia sait utiliser les 2 technologies, mon choix se portera sur une RTX3070 Ti.
Voir tous les messages sur le forum
Haut de page

Sur le même sujet