DLDSR : NVIDIA officialise sa « super résolution » assistée par l'intelligence artificielle

Nerces
Spécialiste Hardware et Gaming
11 janvier 2022 à 21h30
32
© NVIDIA
© NVIDIA

Une technique de super résolution réservée aux cartes graphiques NVIDIA dotées de cœurs Tensor.

Si les disponibilités sont toujours aussi erratiques, cela n'empêche pas les ténors de la carte graphique de se rendre coup pour coup. Ainsi, moins d'une semaine après qu'AMD a annoncé l'intégration du FidelityFX Super Resolution à ses pilotes graphiques, NVIDIA avance un nouveau pion.

Le Dynamic Super Resolution

Depuis plusieurs mois, NVIDIA nous rebat les oreilles avec sa technique de Deep Learning Super Sampling. L'idée est de calculer l'image dans une définition inférieure à celle qui sera effectivement affichée à l'écran afin d'alléger les calculs pour la carte graphique.

On gagne évidemment en performances, mais pour que l'image ne perde pas trop en détails, NVIDIA se repose sur une savante technique faisant intervenir l'intelligence artificielle. Celle-ci doit combler les manques de la manière la plus efficace possible et le fait est que le rendu est aujourd'hui très proche du résultat en définition native.

© NVIDIA
© NVIDIA

Et bien, le Deep Learning Dynamic Super Resolution c'est un peu la même chose, mais « à l'envers ». NVIDIA propose depuis un moment une option de Dynamic Super Resolution (DSR) dans ses pilotes. La chose est simple puisqu'il s'agit de calculer l'image dans une définition cette fois plus importante que celle qui sera affichée réellement.

Vous vous en doutez, on va alors pouvoir obtenir une image sensiblement plus fine et il sera possible de se passer de tout anti-crénelage. Problème, la chose est monstrueusement gourmande.

… assisté par l'intelligence artificielle

C'est à ce niveau qu'intervient le DLDSR grâce, bien sûr, à l'intelligence artificielle. Encore elle. NVIDIA la fait intervenir cette fois pour se charger du downsampling de la meilleure des manières. L'objectif est évidemment que le DSR devienne nettement moins gourmand pour le PC.

© NVIDIA
© NVIDIA

Ainsi, dans les pilotes de NVIDIA, il était possible de régler le DSR sur x4, autrement dit, on venait multiplier le nombre de pixels calculés par quatre et du 2 560 x 1 440 poussait la carte à calculer du 5 120 x 2 880. Perte de performances garantie, mais le DLDSR s'appuie sur l'IA pour, justement, ne calculer que du x2,25 et garder une qualité d'image équivalente, aux dires de NVIDIA bien sûr. Il conviendra de vérifier tout cela.

Par ailleurs, qui dit Deep Learning chez NVIDIA dit aussi contribution des fameux cœurs Tensor des cartes RTX : le DLDSR sera donc réservé aux GeForce RTX et on peut supposer que les RTX 3000 seront plus efficaces, mais NVIDIA souligne que la chose doit être compatible « avec la plupart des jeux », sans que les studios aient à s'employer comme avec le DLSS.

Le DLDSR n'est pas encore disponible, il devrait l'être dès le 14 janvier prochain avec la nouvelle version des pilotes GeForce que la société doit distribuer pour appuyer la sortie de God of War sur PC, lequel sera compatible avec ce bon DLSS, qui ne tire pas sa révérence pour autant.

Source : NVIDIA

Nerces

Spécialiste Hardware et Gaming

Spécialiste Hardware et Gaming

Tombé dans le jeu vidéo à une époque où il fallait une belle imagination pour voir ici un match de foot, là un combat de tanks dans ces quelques barres représentées à l'écran, j'ai suivi toutes les év...

Lire d'autres articles

Tombé dans le jeu vidéo à une époque où il fallait une belle imagination pour voir ici un match de foot, là un combat de tanks dans ces quelques barres représentées à l'écran, j'ai suivi toutes les évolutions depuis quarante ans. Fidèle du PC, mais adepte de tous les genres, je n'ai du mal qu'avec les JRPG. Sinon, de la stratégie tour par tour la plus aride au FPS le plus spectaculaire en passant par les simulations sportives ou les jeux musicaux, je me fais à tout... avec une préférence pour la gestion et les jeux combinant plusieurs styles. Mon panthéon du jeu vidéo se composerait de trois séries : Elite, Civilization et Max Payne.

Lire d'autres articles
Vous êtes un utilisateur de Google Actualités ou de WhatsApp ? Suivez-nous pour ne rien rater de l'actu tech !
google-news

A découvrir en vidéo

Rejoignez la communauté Clubic S'inscrire

Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.

S'inscrire

Commentaires (32)

bmustang
tout ceci doit consommer une énergie énorme pour un résultat mini et très discutable. Pas étonnant que l’énergie coute un bras aujourd’hui et une jambe demain !? Et dire que d’honnête gens se privent de chauffage en plein hiver, c’est scandaleux et inhumain.
juju251
Ben tiens, bien sûr, c’est sans doute la faute de Nvidia si l’énergie coute chère aujourd’hui et pas du tout à cause de décisions politiques stupides depuis des années dans ce domaine …<br /> Bref, on arrête sur cette pente et on revient au sujet, merci.
calude_vincent
J’ai remarqué que ses derniers temps on utilise le therme d’IA pour faire nouveau et puissant. En réalité le futur est bien dans les cartons et ils(fondeurs et assembleur) prennent bien leur temps pour le sortir ainsi nous sommes en déperdition à cause de la volonté incessante et agissante de maximiser les profits. L’Age de la mondialisation court à sa perte et c’est une bonne nouvelle.
pecore
C’est moi ou cela ressemble tout de même beaucoup à un Multisample Anti-aliasing ++, avec de la sauce à l’I.A pour faire style et toujours l’obligation d’avoir une RTX (ben tient). Un peu de patience et AMD nous proposera la même chose en multi-support, si tant est que cela ait un intérêt.<br /> En plus j’ai l’impression que dans l’exemple, entre le natif et le DLDSR 2.25, il y a un peu plus qu’une simple augmentation de la résolution, comme des effets de lumière et de volume en plus. Un peu tricheurs, Nvidia ?
turrican59
Le projet HERCULE ça vous parle ?<br /> Critiqués les agents EDF quand il faisait grève sans même savoir pourquoi , ou les traiter de fainéant , de planqué …<br /> Venez pas pleurer sur le prix de l’électricité maintenant , et vous avez pas fini car c’est que le début .<br /> Concernant les consommations des cartes graphique ça ne peut qu’aller en montant .
benben99
Je trouve que c’est une excellente idée. Si ca coûte quelques watts de plus, je m’en tape. Je veux de la performance.
SplendoRage
Que Nvidia développe et sorte de nouvelles technologies, je suis loin d’être contre. En revanche, il faudrait pouvoir disposer des cartes pour en profiter …<br /> Et jusqu’à preuve du contraire, le minage de crypto n’a pas besoin de RT et Tensor cores alors que c’est justement là que se trouve la grande majorité de la production de GPU depuis début 2021 …<br /> Donc il serait souhaitable que Nvidia se bouge un peu pour résoudre ce problème …<br /> Je ne parlerais ni de Intel ou d’AMD qui au contraire encouragent l’exploitation de leurs GPU à cette activité …
Voigt-Kampf
Je n’ai pas tout compris : l’ «&nbsp;IA&nbsp;» intervient uniquement dans le «&nbsp;downsizing&nbsp;» ou pendant tout le processus de «&nbsp;supersampling&nbsp;» ?
Tritri54
ça aidera peut être Forza Horizon 5 à avoir moins d’aliasing …
AtomosF
La faute de Nvidia clairement non, mais la faute des Mineurs un peu ^^ Quand on voit des buildings entiers de rack pour miner des trucs virtuelles…
the_Spawn
Moi, j’attends toujours les trucs bidules assistés par la Connerie Artificielle !<br />
Garden_Dwarf
Vivement les tests alors !<br /> Ce qui est moins top, c’est pour le joueur lambda qui ne maîtrise pas ces technologies. Pour pouvoir profiter au maximum de ce que son PC peut permettre, il fait comment pour choisir parmis toutes ces options ?
tfpsly
pecore:<br /> C’est moi ou cela ressemble tout de même beaucoup à un Multisample Anti-aliasing ++, avec de la sauce à l’I.A<br /> C’est à peu près ça oui : un MSAA où le rendu à plus haute résolution ne coupte que 2 fps ici (143 au lieu de 145 fps).<br /> Voigt-Kampf:<br /> Je n’ai pas tout compris : l’ « IA » intervient uniquement dans le « downsizing » ou pendant tout le processus de « supersampling » ?<br /> Au moins la première passe (rendu en plus haute résolution) : vu que DLDSR signifie Deep Learning Dynamic Super Resolution.<br /> The DLDSR is an improvement over DSR that adds an AI layer powered by NVIDIA Tensor cores. This also means that this feature will be exclusive to NVIDIA RTX GPUs.<br /> Ce n’est pas clair pour l’instant si la réduction de résolution est classique ou faite par un réseau de neurones.<br /> Our January 14th Game Ready Driver updates the NVIDIA DSR feature with AI. DLDSR (Deep Learning Dynamic Super Resolution) renders a game at higher, more detailed resolution before intelligently shrinking the result back down to the resolution of your monitor. This downsampling method improves image quality by enhancing detail, smoothing edges, and reducing shimmering.<br /> Nvidia a mis ici un comparo entre le jeu original et avec DLDSR + SSRTGI (éclairage par raytracing).
WildWildSausages
(pour le cas du dldsr) Imagines l’IA comme une boîte noire qui va réaliser une prédiction qui va dans ce cas tenter de lisser au mieux une image . En gros, tu lui donne en entrée une image de grande résolution toute crénelée que tu auras calculer en amont, et demander à la boîte noire de la réduire et de la rendre toute lisse. Voilà, je vais maintenant reposer les truelles à tonton et j’espère que ce fût assez clair ^^
Urleur
A condition d’avoir une Cg serie 3000 et là, c’est pas gagner, tant que les prix seront toujours X2, X3, X4 etc … non je changerais pas.
Voigt-Kampf
tfpsly:<br /> Au moins la première passe (rendu en plus haute résolution) : vu que DLDSR signifie Deep Learning Dynamic Super Resolution.<br /> Clubic parle que c’est pendant le «&nbsp;downsampling&nbsp;». Dans tous les cas pas besoin de réfléchir longtemps pour comprendre que c’est juste prendre un marteau pour écraser une mouche. Les techniques de supersampling sont déjà assez optimisées ainsi.
kazumi
y a de tout quand tu vois qu’une partie de la crise énergétique au kazakstan est du au minage de crypto
SlowPulseBoy
Je trouve que la remarque de bmustang est tout à fait justifiée. Le rapport bénéfice sur coût énergétique est désormais un aspect important à considérer pour toute nouvelle techno. Surtout que c’est un thème qui peut être traité de manière objective.<br /> Un comble que ça soit un modérateur, qui au contraire, glisse le sujet sur la pente savonneuse de la politique…
Popoulo
Le comble c’est de casser les boules à répétition avec vos conneries de consommation.<br /> Vendez vos ordis et tout autre appareil qui consomme de l’electricité si vous voulez vraiment faire un geste pour la planète mais arrêtez de radoter comme des vieux séniles centenaires.<br /> De plus, le modérateur a tout à fait raison. Mais faut encore pouvoir comprendre de quoi il parle.
WildWildSausages
C’est sûr. Mais en ce qui concerne l’IA, elle réduit considérablement la charge de travail dans le domaine dans lequel elle est appliquée. Ce n’est pas qu’un argument de marketing mais un fait, il n’y a qu’à voir le gain apporté par les réseaux de neurones convolutifs du dlss pour en avoir un exemple flagrant (et c’est la même dans tout les domaines où est implémenté l’IA). Bref, ce sujet peut être intéressant ci il est amené de façon intelligente et non comme il a été abordé, et surtout en ayant pas fait l’effort de voir que le dldsr ne consommait presque pas de ressources contrairement aux algorithmes «&nbsp;optimisé&nbsp;». Bonne journée
SlowPulseBoy
Mais je suis d’accord avec toi. L’idée c’est qu’on peut/doit pouvoir débattre du sujet de l’efficacité énergétique, de l’intérêt, et de l’impact en commentaire d’une nouvelle techno (et oui de manière objective et raisonnée) si ce n’est dans l’article même.<br /> Je suis technophile (ingénieur), et consommateur, et je suis convaincu que c’est un aspect important dans la prise en compte d’un nouveau produit.<br /> Le commentaire en question n’amène peut être pas la question de façon intelligente comme tu dis mais il n’est pas hors sujet. je suis par contre beaucoup plus dubitatif sur la question politique dont se justifie le modérateur.
WildWildSausages
Le sujet de l’IA est un sujet vaste et intéressant, possédant des qualités et défauts propres (je travail actuellement dessus). (J’ai commencé à écrire un roman, mais je ne pense pas que l’espace commentaire soit l’endroit approprié pour cela, par contre je garde ton raisonnement de côté car il mérite d’être mis en avant, et des que je commencerais la réalisation de vidéo sur mon travail, je lancerais le sujet à ce moment) bonne journée
tfpsly
Voigt-Kampf:<br /> Dans tous les cas pas besoin de réfléchir longtemps pour comprendre que c’est juste prendre un marteau pour écraser une mouche. Les techniques de supersampling sont déjà assez optimisées ainsi.<br /> Le coût en performance est très faible ici (2 fps perdues sur une base de 145). Au contraire ça semble être un très bon remplacement de techniques plus lourdes.
r2ondar
Perso j’utilise le DSR sur les anciens jeux, j’en suis très content et si on peut encore améliorer les performances grâce à l’IA alors c’est que du bonus et si vous n’utilisez pas le DSR, ça changera rien pour vous.<br /> Sur les vieux jeux, même avec le DSR on est facile a +100 fps mais sur les jeux plus récents, le DSR était pas du tout rentable vu son impact sur les perf. L’IA nous permettra de l’utiliser sur des jeux plus récents sans faire chuter les fps de moitié comme avant.<br /> Après ça sera pas aussi utile que le DLSS qui permet plus de perf sur les derniers gros jeux gourmands (notamment en RT), ici sur les anciens jeux on a déjà bien plus de puissance que nécessaire, à la limite ça pourrait permettre une consommation réduite si on cap les fps.
r2ondar
Je vois pas pourquoi ça parle autant de la consommation…<br /> Entre avec et sans cette nouvelle technologie, le rapport consommation/rendu est diminué, ça demandera moins de calcul pour un rendu visuel équivalent. Donc soit le joueur consomme pareil mais gagne en perf, soit il cap les fps pour avoir les même qu’avec la techno disable et dans ce cas il consomme moins de courant.<br /> Cette technologie n’est pas néfaste pour la planète, c’est même potentiellement le contraire.<br /> Et quand bien même… Vous croyez pas qu’il existe d’autres domaines/secteurs/activités humaines dont l’impact sur l’environnement est sans commune mesure avec tout ça sérieusement ?
DBworld
J’ai lu les tout les commentaires. Et honnêtement au moins la moitié ne parle pas du sujet. Mais de la consommation électrique. Je crois que je me suis trompé d’article.
SplendoRage
La moitié nous bassine avec la consommation électrique alors que cette même moitié vendrait un rein pour acheter une Tesla …<br /> On nous emmerde avec la conso électrique d’une CG alors que paradoxalement, ce sont les mêmes qui ne se demandent pas comment on recharge une voiture électrique ni combien ça en consomme …
BossRreynolds
les iluminations ont couté combien ? pourtant il a bien fallu des ordinateurs pour gerer celle de la tour eiffel aussi j’avoue que nous sommes de gros consommateurs d’electricité mais c’est mieux que le charbon ou le bois ou le fioul ou… et pour en revenir au sujet, l’ordinateur maison vas bientot être 100% IA donc autant voir et lire son évolution même si on s’y perds dans les termes d’une meilleure et best seller de la résolution, mais, bientôt, aprés la 8k vidéo on passerra à 12 ou 16k puis 24 à 48k et il faudra de grosse carte graphique de gros processeur et de gros disque nvme, mais par delà, j’ai analysé les performances demandé sur certain site de youtubeur qui ont la chance de tester le matériel, si on mets de gros modules graphique le processeur est amoindrie mais pas la memoire, quand au Température de ces modéles il faudra de gros boitier avec du AIO revolutionnaire. soit on progresse vers une machine intelligente mais à quel prix (tarif).
philumax
Moi je n’ai rien contre l’amélioration des perfs et l’utilisation de l’IA. Y a juste, que le matériel, pourtant vendu par celui qui fait ces optimisations, est quasi introuvable, à prix MSRP. Donc, pour moi, c’est du vent.
Voigt-Kampf
Le marketing n’a que très peu d’effet sur moi.<br /> Depuis le temps et en ces temps qui courent, je suis pour ainsi dire «&nbsp;vacciné&nbsp;» des chiffres trompeurs sortis de tout contexte qui ne veulent plus rien dire, et des comparaisons en tout sens des choux avec des carottes.<br /> La capture dans le lien ne prouve rien si ce n’est qu’ils sont amusés à tout rendre trompeur en ajoutant un filtre de contraste.
bmustang
C’est facile de dire toujours que c’est les autres, on évite comme ça de se poser les bonnes question, à continuer à faire les mêmes erreurs pour seulement faire plaisir à une petite minorité d’égocentrique pour quelques FPS.
pucespicions
Alors que le 8K a été présenté en 2005, j’attends encore une connectique DP ou HDMI qui permette 8K @ 120Hz @ 10bpc, aussi bien côté écran que côté carte graphique (ou carte mère si circuits graphiques intégrés dans le processeur). Comme les standards DP ou HDMI ont des provisions facultatives, il faut aussi s’assurer avant d’acheter que les câbles tiennent la route, à moins que par magie on passe de l’argent ou du cuivre à la fibre optique (comme Silicon Graphics au siècle dernier).<br /> Pour les images fixes, la majorité des capteurs sont Bayer, à savoir que chaque pixel est soit rouge, soit vert, soit bleu à l’origine, et des algorithmes complexes dans l’appareil photo font un calcul des pixels voisins pour essayer de reconstituer l’image (hélàs cet «&nbsp;effet Nutella&nbsp;» n’a pas encore été résolu). Pour les capteurs «&nbsp;Foveon&nbsp;» où les sous-pixels étaient superposés, Sigma a finalement abandonné après les séries DP en 2013, et ce n’était pas optimal en basse luminosité, donc il faudra attendre un miracle en silicone sur safir ou autre pour espérer des images fixes de qualité. Certes la vidéo grâce à la mobilité n’est pas tellement affectée, moyennant quoi je me demande vraiment ce que l’IA va améliorer.<br /> Je note que Nvidia se lançait l’année dernière dans les cartes de minages de cryptomonnaies genre nvidia cmp 170HX à 5000$ (voir EcGkF9SBuSo sur youtube) et je me demande si Nvidia devra un jour recruter Greta Thunberg quand l’effort de minage BTC ou autres calculs complexes des présences tmprss2/ace2/ cathepsine des nouveaux Coronavirus si le Khazakstan finit par décupler le prix de l’uranium… Une réalité de moins en moins virtuelle !
Jonathan.gris
Encore un truc qui ne sera pas disponible avec l’optimus des PC portable…
Voir tous les messages sur le forum
Haut de page

Sur le même sujet