Le FSR 2.0 d'AMD est aussi efficace que le DLSS 2.0 de NVIDIA d'après les premiers tests

Robin Lamorlette
Publié le 12 mai 2022 à 15h55
© AMD
© AMD

Annoncé cette semaine en même temps que les nouvelles cartes graphiques RX 6000, le FSR 2.0 d'AMD s'apprête à faire des émules.

Nos confrères chez TechPowerUp ont eu l'occasion de tester la version 2.0 de la technologie open-source de super-échantillonnage garantie sans machine learning de la Team Rouge. Et ces premiers tests semblent l'élever sur de nombreux points au même niveau que le fameux DLSS 2.0 de NVIDIA.

Une mise à jour digne de ce nom

Probablement la nouveauté logicielle la plus attendue côté AMD, le FSR 2.0 ne va pas tarder à être déployé sur les jeux déjà sortis parmi une dizaine supportant la technologie.

Pour rappel, l'idée de la Team Rouge avec le FSR est de proposer une solution de super-échantillonnage beaucoup plus accessible que le DLSS. Le FSR 2.0 peut ainsi fonctionner même sur des cartes graphiques relativement anciennes, peu importe qu'elles soient estampillées NVIDIA ou AMD.

Mais là où le FSR 2.0 fait mieux que son aîné, c'est qu'il utilise cette fois une méthode d'upscaling temporel et non spatial comme ce dernier. Une méthode plus complexe à implémenter, qui requiert donc un effort supplémentaire de la part des développeurs.

La technologie d'AMD se rapproche en ce sens fortement du DLSS de NVIDIA. Or, si les développeurs ont au préalable travaillé à intégrer celui-ci à leur jeu, l'implémentation du FSR 2.0 peut quant à elle se compter en seulement quelques jours.

Des résultats à la hauteur du DLSS 2.0

En avant-première, certains ont ainsi pu tester le FSR 2.0 sur Deathloop, l'un des premiers jeux à supporter cette nouvelle technologie. Ces tests ont été réalisés sur des RTX 3060 et RTX 3080, ce afin de comparer plus facilement DLSS 2.0 et FSR 2.0.

Selon les premiers retours, la nouvelle technologie d'AMD se montre largement à la hauteur de celle de NVIDIA. Elle afficherait même de meilleurs résultats en mode Qualité en 4K. Le FSR 2.0 semble toutefois perdre pied face au DLSS 2.0 en mode Performance.

Les premiers tests déplorent en effet un ghosting assez présent. Comme le DLSS 2.0 en son temps finalement. Le FSR 2.0 étant encore tout jeune, il lui reste donc encore une certaine marge d'amélioration.

Toujours est-il qu'il est assez impressionnant qu'une technologie open-source dispensée de l'aide du machine learning puisse tenir aussi bien tête au DLSS. La domination des cartes graphiques RTX sur le terrain du super-échantillonnage pourrait bien arriver à son terme.

Source : TechPowerUp

Robin Lamorlette
Par Robin Lamorlette

Fan absolu de tech, de films/séries, d'heroic-fantasy/SF et de jeux vidéos type RPG, FPS et hack&slash qui se shoote à coups de lore sur Star Wars, The Witcher, Cyberpunk, Game of Thrones et Donjons & Dragons/Baldur's Gate 3.

Vous êtes un utilisateur de Google Actualités ou de WhatsApp ?
Suivez-nous pour ne rien rater de l'actu tech !
Commentaires (0)
Rejoignez la communauté Clubic
Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.
Commentaires (10)
Bombing_Basta

Toujours est-il qu’il est assez impressionnant qu’une technologie open-source dispensée de l’aide du machine learning puisse tenir aussi bien tête au DLSS.

J’vois pas en quoi c’est étonnant.

Ce qui m’étonne moi, c’est qu’il y en ai encore pour croire au bullshit marketing de nv, après la tentative physX, et, toujours d’actualité, l’arnaque gsynch.

Non y’a pas besoin de carte dédiée pour gérer la physique, merci AMD, non y’a pas besoin de puce à 300 balles pour gérer le VRR, merci AMD, non y’a pas besoin d’IA pour gérer un upscaling de qualité, merci AMD.

Yorgmald

Autant je suis globalement d’accord, autant pour la partie physic je ne le suis pas.

Yann_Oldies

En fait à l’époque pour les quelques jeux utilisant NVIDIA PhysX (genre je me rappelle du premier Batman) les GPU n’étaient simplement pas en leur temps ‹ assez › capables de faire tourner les jeux avec PhysX en ultra. Mais Ca n’avait aucun sens de mettre une deuxième carte pour ça, juste à attendre un ou deux cycles pour que ce soit géré nativement.

crush56

La gestion de la physique aussi poussée nécessitait réellement une partie hardware spécifique, d’ailleurs avant qu’Nvidia rachète la techno on devait acheter une carte pci physx si mes souvenirs sont bons.
Mais les gens se sont simplement rendus compte qu’il n’était pas nécessaire d’avoir une physique aussi poussée, disons que ça n’apportait pas grand chose en terme de gameplay vu le sacrifice en performances.

Bombing_Basta

On ne devait rien du tout.
Et des moteurs de jeu comme Source (plus précisément Havok) ont démontré toute l’inutilité de ces cartes, sous pavillon NV ou pas.

Pernel

Pour la VRR, je suis moyennement d’accord. Le FreeSync est très permissif, peut être trop, certains écrans FreeSync ont un très mauvais comportement en VRR avec un support aléatoire et limité (souvent 48-60Hz) et d’autres le font beaucoup mieux. Par contre, le GSync (qui est très cher, ça on est d’accord) assure par contre des restrictions plus … restrictives, et donc par conséquent, ça fonctionne toujours très bien. Après on est d’accord, NVidia se sucre un max, comme toujours.
Pour avoir eu un écran FreeSync 165Hz (plage de 48 a 165Hz), le support était aléatoire, des fois, c’était très agréable, et par moment insupportable (ne fonctionnait tout simplement pas), et les rares fois où je descendais sous les 48Hz, ça ne fonctionnait pas, logique. Depuis je suis passé à un GSync 120Hz, c’est pas parfait (dans le cas où parfait voudrait dire quelque chose de concret), mais pas de surprise, aucun souci. Les rares moments où le GPU ne suit pas (faut le vouloir mais ça peut arriver vu l’optimisation chez certains développeurs …), ça reste quand même agréable sous les 60, ça vaut pas un 60+ mais « ça va ». Après c’est trop cher pour ce que c’est.

Pernel

Il me semble que le Source était couplé au moteur physique Havok (encore largement utilisé de nos jours), mais ça rejoint ce que tu dis.

Bombing_Basta

Oui je viens de préciser pour plus de clareté.

Garden_Dwarf

J’applaudis. Une démarche qui va à contresens de la tendance « ça ne tourne pas assez vite ? Achetez du nouveau matos », il faut le noter tout de même.

Après, j’ai - la chance d’avoir - une RTX 3XXX, donc pour moi peu importe qui l’emporte.

GrisburT

Mouais on attendra les testes sur d’autres jeux, car comme tout fabriquant, on montre bien ce qui marche pour se vanter. Après les gens faut arrêter avec votre fanboyisme AMD, ils seraient leader il auraient un autre comportement, et merci à Nvidia de faire des trucs bien comme de la m*rde pour justement provoquer la concurrence