DLDSR : NVIDIA officialise sa « super résolution » assistée par l'intelligence artificielle

Nerces
Par Nerces, Spécialiste PC & Gaming.
Publié le 11 janvier 2022 à 21h30
© NVIDIA
© NVIDIA

Une technique de super résolution réservée aux cartes graphiques NVIDIA dotées de cœurs Tensor.

Si les disponibilités sont toujours aussi erratiques, cela n'empêche pas les ténors de la carte graphique de se rendre coup pour coup. Ainsi, moins d'une semaine après qu'AMD a annoncé l'intégration du FidelityFX Super Resolution à ses pilotes graphiques, NVIDIA avance un nouveau pion.

Le Dynamic Super Resolution

Depuis plusieurs mois, NVIDIA nous rebat les oreilles avec sa technique de Deep Learning Super Sampling. L'idée est de calculer l'image dans une définition inférieure à celle qui sera effectivement affichée à l'écran afin d'alléger les calculs pour la carte graphique.

On gagne évidemment en performances, mais pour que l'image ne perde pas trop en détails, NVIDIA se repose sur une savante technique faisant intervenir l'intelligence artificielle. Celle-ci doit combler les manques de la manière la plus efficace possible et le fait est que le rendu est aujourd'hui très proche du résultat en définition native.

© NVIDIA
© NVIDIA

Et bien, le Deep Learning Dynamic Super Resolution c'est un peu la même chose, mais « à l'envers ». NVIDIA propose depuis un moment une option de Dynamic Super Resolution (DSR) dans ses pilotes. La chose est simple puisqu'il s'agit de calculer l'image dans une définition cette fois plus importante que celle qui sera affichée réellement.

Vous vous en doutez, on va alors pouvoir obtenir une image sensiblement plus fine et il sera possible de se passer de tout anti-crénelage. Problème, la chose est monstrueusement gourmande.

… assisté par l'intelligence artificielle

C'est à ce niveau qu'intervient le DLDSR grâce, bien sûr, à l'intelligence artificielle. Encore elle. NVIDIA la fait intervenir cette fois pour se charger du downsampling de la meilleure des manières. L'objectif est évidemment que le DSR devienne nettement moins gourmand pour le PC.

© NVIDIA

Ainsi, dans les pilotes de NVIDIA, il était possible de régler le DSR sur x4, autrement dit, on venait multiplier le nombre de pixels calculés par quatre et du 2 560 x 1 440 poussait la carte à calculer du 5 120 x 2 880. Perte de performances garantie, mais le DLDSR s'appuie sur l'IA pour, justement, ne calculer que du x2,25 et garder une qualité d'image équivalente, aux dires de NVIDIA bien sûr. Il conviendra de vérifier tout cela.

Par ailleurs, qui dit Deep Learning chez NVIDIA dit aussi contribution des fameux cœurs Tensor des cartes RTX : le DLDSR sera donc réservé aux GeForce RTX et on peut supposer que les RTX 3000 seront plus efficaces, mais NVIDIA souligne que la chose doit être compatible « avec la plupart des jeux », sans que les studios aient à s'employer comme avec le DLSS.

Le DLDSR n'est pas encore disponible, il devrait l'être dès le 14 janvier prochain avec la nouvelle version des pilotes GeForce que la société doit distribuer pour appuyer la sortie de God of War sur PC, lequel sera compatible avec ce bon DLSS, qui ne tire pas sa révérence pour autant.

Source : NVIDIA

Par Nerces
Spécialiste PC & Gaming

Tombé dans le jeu vidéo à une époque où il fallait une belle imagination pour voir ici un match de foot, là un combat de tanks dans ces quelques barres représentées à l'écran, j'ai suivi toutes les évolutions depuis quarante ans. Fidèle du PC, mais adepte de tous les genres, je n'ai du mal qu'avec les JRPG. Sinon, de la stratégie tour par tour la plus aride au FPS le plus spectaculaire en passant par les simulations sportives ou les jeux musicaux, je me fais à tout... avec une préférence pour la gestion et les jeux combinant plusieurs styles. Mon panthéon du jeu vidéo se composerait de trois séries : Elite, Civilization et Max Payne.

Vous êtes un utilisateur de Google Actualités ou de WhatsApp ?
Suivez-nous pour ne rien rater de l'actu tech !
Commentaires (0)
Rejoignez la communauté Clubic
Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.
Commentaires (10)
bmustang

tout ceci doit consommer une énergie énorme pour un résultat mini et très discutable. Pas étonnant que l’énergie coute un bras aujourd’hui et une jambe demain !? Et dire que d’honnête gens se privent de chauffage en plein hiver, c’est scandaleux et inhumain.

juju251

Ben tiens, bien sûr, c’est sans doute la faute de Nvidia si l’énergie coute chère aujourd’hui et pas du tout à cause de décisions politiques stupides depuis des années dans ce domaine …

Bref, on arrête sur cette pente et on revient au sujet, merci.

calude_vincent

J’ai remarqué que ses derniers temps on utilise le therme d’IA pour faire nouveau et puissant. En réalité le futur est bien dans les cartons et ils(fondeurs et assembleur) prennent bien leur temps pour le sortir ainsi nous sommes en déperdition à cause de la volonté incessante et agissante de maximiser les profits. L’Age de la mondialisation court à sa perte et c’est une bonne nouvelle.

pecore

C’est moi ou cela ressemble tout de même beaucoup à un Multisample Anti-aliasing ++, avec de la sauce à l’I.A pour faire style et toujours l’obligation d’avoir une RTX (ben tient). Un peu de patience et AMD nous proposera la même chose en multi-support, si tant est que cela ait un intérêt.
En plus j’ai l’impression que dans l’exemple, entre le natif et le DLDSR 2.25, il y a un peu plus qu’une simple augmentation de la résolution, comme des effets de lumière et de volume en plus. Un peu tricheurs, Nvidia ?

turrican59

Le projet HERCULE ça vous parle ?
Critiqués les agents EDF quand il faisait grève sans même savoir pourquoi , ou les traiter de fainéant , de planqué …
Venez pas pleurer sur le prix de l’électricité maintenant , et vous avez pas fini car c’est que le début .

Concernant les consommations des cartes graphique ça ne peut qu’aller en montant .

benben99

Je trouve que c’est une excellente idée. Si ca coûte quelques watts de plus, je m’en tape. Je veux de la performance.

SplendoRage

Que Nvidia développe et sorte de nouvelles technologies, je suis loin d’être contre. En revanche, il faudrait pouvoir disposer des cartes pour en profiter …
Et jusqu’à preuve du contraire, le minage de crypto n’a pas besoin de RT et Tensor cores alors que c’est justement là que se trouve la grande majorité de la production de GPU depuis début 2021 …
Donc il serait souhaitable que Nvidia se bouge un peu pour résoudre ce problème …
Je ne parlerais ni de Intel ou d’AMD qui au contraire encouragent l’exploitation de leurs GPU à cette activité …

Voigt-Kampf

Je n’ai pas tout compris : l’ « IA » intervient uniquement dans le « downsizing » ou pendant tout le processus de « supersampling » ?

Tritri54

ça aidera peut être Forza Horizon 5 à avoir moins d’aliasing …

AtomosF

La faute de Nvidia clairement non, mais la faute des Mineurs un peu ^^ Quand on voit des buildings entiers de rack pour miner des trucs virtuelles…