NVIDIA lance le DLAA avec The Elder Scrolls Online (MàJ)

Nerces
Spécialiste Hardware et Gaming
20 septembre 2021 à 13h36
14
© Zenimax
© Zenimax

Mise à jour du 20/09 : En quelques mots, sans fioriture, NVIDIA nous confirme que le DLAA nécessite bien les tensor cores des cartes RTX.

Non, non, il n'est pas question d'une faute de frappe sur le DLSS, mais bien d'un autre outil mis en place par NVIDIA.

Le DLAA – pour Deep Learning Anti Aliasing – est une nouvelle technique que NVIDIA et Zenimax lancent conjointement, sur le vieillissant mais toujours vert The Elder Scrolls Online, comme l'a souligné Alex Tardif, ingénieur graphique en chef chez Zenimax Online.

Proche cousin du DLSS

Pour comprendre le fonctionnement du DLAA, il est nécessaire de se pencher sur le déjà bien connu DLSS ou Deep Learning Super Sampling. Il s'agit d'une technique mise en place par NVIDIA afin de limiter la puissance de calcul nécessaire au GPU pour rendre une scène qui se limite, par exemple, à un rendu en 1 440p.

Ensuite, comme le nom DLSS le laisse supposer, de puissants algorithmes gérés par l'intelligence artificielle se chargent d'upscaler l'image calculée par le GPU afin de la passer – poursuivons notre exemple – en 2 160p. Le joueur ou la joueuse gagne alors évidemment en finesse sans que sa carte graphique ait été trop lourdement sollicitée.

Le DLAA repose lui aussi sur de puissants algorithmes gérés par l'intelligence artificielle, mais il se veut plus simple que le DLSS en ne cherchant pas à upscaler l'image. Le DLAA se focalise sur l'anticrénelage pour éviter cet effet « escalier ».

Intégration à The Elder Scrolls Online

Le MMORPG signé Zenimax est donc le premier titre à profiter du DLAA et Alex Tardif se montre particulièrement enthousiaste. Il précise que sur The Elders Scrolls Online, le nombre d'images par seconde obtenu sur les cartes graphiques RTX est déjà important.

De fait, l'intérêt du DLSS est moindre : le but n'est pas d'améliorer la fluidité de l'animation. En revanche, le DLAA permet de nettement affiner les scènes. Le comparse d'Alex Tardif, Rich Lambert, directeur créatif chez Zenimax, ajoute : « C'est le lancement de leur nouvelle technologie, appelée NVIDIA DLAA. C'est le même genre de concept [que DLSS], vous n'obtiendrez pas d'amélioration des performances, mais ce que vous obtenez est un anti-aliasing absolument incroyable. C'est incroyable, c'est fou comme c'est bon ».

DLAA semble donc devoir constituer une option intéressante pour des jeux un peu anciens qui n'ont pas nécessairement besoin d'un boost des performances. Une question se pose toutefois : est-il nécessaire de disposer d'une carte RTX pour profiter de DLAA ?

Source : WCCFTech

Nerces

Spécialiste Hardware et Gaming

Spécialiste Hardware et Gaming

Tombé dans le jeu vidéo à une époque où il fallait une belle imagination pour voir ici un match de foot, là un combat de tanks dans ces quelques barres représentées à l'écran, j'ai suivi toutes les év...

Lire d'autres articles

Tombé dans le jeu vidéo à une époque où il fallait une belle imagination pour voir ici un match de foot, là un combat de tanks dans ces quelques barres représentées à l'écran, j'ai suivi toutes les évolutions depuis quarante ans. Fidèle du PC, mais adepte de tous les genres, je n'ai du mal qu'avec les JRPG. Sinon, de la stratégie tour par tour la plus aride au FPS le plus spectaculaire en passant par les simulations sportives ou les jeux musicaux, je me fais à tout... avec une préférence pour la gestion et les jeux combinant plusieurs styles. Mon panthéon du jeu vidéo se composerait de trois séries : Elite, Civilization et Max Payne.

Lire d'autres articles
Vous êtes un utilisateur de Google Actualités ou de WhatsApp ? Suivez-nous pour ne rien rater de l'actu tech !
google-news

A découvrir en vidéo

Rejoignez la communauté Clubic S'inscrire

Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.

S'inscrire

Commentaires (14)

mamide
Je suis sûr que ça n’a rien à voir avec les critiques sur les Tensor Cores qui ne sont plus un atout puisque le FSR de AMD fait la même chose (et parfois même mieux) sans utiliser les Tensor Cores et surtout ça marche avec toutes les Cartes Graphiques.<br /> Si le FSR était sorti que chez AMD y aurait pas de problème mais là il marche même sur les RTX 2000 et 3000 et ils donnent le même résultat si ce n’est mieux sans les fameux coeurs dédiés à l’intelligence artificielle.<br /> Au final AMD a prouvé que le hardware ne fait pas tout et qu’avec le Software on peut faire des merveilles !<br /> Certains critiquent même le patron de Nvidia qui a présenté les Tensor Core comme une révolution du genre … et si AMD avait lançait le FSR à ce moment là et bien Nvidia aurait changé de discours !<br /> Donc faut bien trouver une utilité intéressante à ces Tensor Cores (dédiés à l’intelligence artificielle) pour justifier leur présence.
crush56
C’est assez fou de voir à quel point Nvidia avance et innove sur les nouvelles technos
Feunoir
Ils sont certains qu’il n’y a pas d’upscale?<br /> L’une des premières idées que j’ai eu en voyant la description du DLSS c’est que ce serait pas mal comme base pour faire un genre de MSAA à l’ancienne, amélioré.<br /> Au lieu de partir d’une définition inférieure on part de la native que l’on upscale et améliore, puis on y redescend en fin de traitement. Un type de uber sampling à la the witcher 2, via du dlss dévoyé en gros.<br /> Bon c’est vrai que si le travail d’amélioration suffit c’est pas la peine de passer par de l’upscale
galaxyexpress999
N’importe quoi… Il suffit de regarder les résultats des deux technologies en face pour voir que la solution d’AMD est atomisée par le dlss d’Nvidia.<br /> Sans compter que les tensor cores permettent le raytracing en temps réel ainsi que des calculs de simulations dix fois plus poussés, de l’IA… Rien d’équivalent chez AMD.<br /> Je dis ça alors que j’adorerais qu’Nvidia ait un concurrent à la hauteur, leur monopole sur le hardware me fait très peur pour la suite. Sauf que pour l’instant, AMD est très loin derrière.
bmustang
AMD est loin c’est vrai, mais propose quelque chose de simple et efficace. On en demande pas des tonnes.
Pernel
Atomisé non, le DLSS est légèrement devant mais c’est tout, l’avantage du FSR c’est son intégration et son ouverture.<br /> Les puces AMD permettent aussi le ray tracing en temps réel etc.<br /> De quels calculs de simulation parles tu ? (parce que comme ça, ça veut rien dire).<br /> De l’IA ? oui on le voit que l’IA a bien progressé les 15 dernières années pour être au mieux au même niveau qu’avant, surtout que c’est calculé par le CPU généralement.
juju251
galaxyexpress999:<br /> N’importe quoi… Il suffit de regarder les résultats des deux technologies en face pour voir que la solution d’AMD est atomisée par le dlss d’Nvidia.<br /> Ben voyons, atomisé, rien de moins.<br /> galaxyexpress999:<br /> Sans compter que les tensor cores permettent le raytracing en temps réel ainsi que des calculs de simulations dix fois plus poussés, de l’IA… Rien d’équivalent chez AMD.<br /> Source ?<br /> Et comment ça «&nbsp;dix fois plus poussés ?&nbsp;»<br /> Edit : Avant qu’on vienne me casser les pieds avec un «&nbsp;t’es pro AMD&nbsp;».<br /> Je suis précisément passé d’une longue série de cartes ATI / AMD à du Nvidia, juste parce que cette dernière correspondait plus à mes besoins actuels.<br /> Sans compter la problématique actuelle de dispo …
galaxyexpress999
Embergen, Houdini, Octane render, Redshift, les moteurs realtime comme VVVV… Je parle d’applications pros qui tirent avantage des tensor cores comme architecture dédiée, les perfs en terme de temps de rendus sont décuplées dans certains cas.<br /> En ce qui concerne le real time ray tracing, la solution AMD propose au mieux des réflexions temps réel ou des hard/soft shadows plus ou moins réussies mais pas de véritable path tracing (pour le moment).<br /> Le FSR est un supersampling à peine caché avec du sharpening derrière, la solution Nvidia s’appuie sur un training d’IA qui s’améliore à chaque version, c’est le jour et la nuit, ce qui amène parfois certains modes DLSS à dépasser en qualité la résolution native.<br /> Je ne veux pas bâcher AMD, j’aimerais que leurs solutions soient à la hauteur de l’enjeu, surtout qu’elles sont ouvertes à tous les hardware ce qui devrait être la règle. Mais affirmer comme ça l’est plus haut que l’annonce du FSR aurait amené Nvidia à «&nbsp;réfléchir&nbsp;», je maintiens, c’est n’importe quoi.<br /> J’espère sincèrement que l’avenir me donnera tort, je répète que l’avancée technologique d’Nvidia et le monopole qu’elle entraîne ne me dit rien qui vaille… Au niveau professionnel, je ne peux hélas pas m’en passer (ce que j’ai fait volontiers contre intel en adoptant les threadrippers qui sont eux de véritables bijoux).
pecore
Le DLSS de Nvidia est supérieur au FSR, surtout en basse résolution, personne ou presque ne le nie. Pourtant l’arrivée du FSR a fait très mal à Nvidia en terme d’image. Nvidia a tellement insisté, matraqué, que les avantages de leurs GPU venaient de leur hardware propriétaire ultra top moumoute que lorsque AMD a sorti sa solution, pas aussi bonne, certes, mais tout de même assez proche pour satisfaire 99% des gens et qui ne nécessitait aucun tensor schmurtz et autre deep-learning-machin-mes-genoux, ils ont été complètement démentis.<br /> Cela a été un vrai camouflet pour Nvidia, les faisant passer pour des bonimenteurs. En plus en rendant sa solution cross-plateforme et open-source, AMD a fait passer Nvidia pour des égoïstes mesquins, par comparaison.<br /> Donc, si AMD avec son FSR n’a pas gagné la guerre technologique, il a nettement gagné la guerre de l’image, au moins sur cette partie là et commercialement c’est ce qui compte le plus.<br /> Le DLSA est possiblement un moyen pour Nvidia de se remettre en avant mais c’est un peu piteux à mon avis. Quel gain des cartes aussi puissantes que des RTX pourraient elles tirer d’un upscalling d’AA et surtout qu’est ce qui empêchera AMD d’intégrer une solution équivalente à son FSR dans de futures versions.
ramses_deux
Exactement ce que @galaxyexpress999 dit:<br /> Essayez de faire du rendu 4K avec Octane + AMD…<br /> Je pouffe d’avance!<br /> Il faut faire la part des choses :<br /> Pour les gamers, nVidia ou AMD c’est kif kif hein. Pas la peine de tergiverser… a quelques % de difference une fois d’un cote une fois de l’autre.<br /> Pour les applications hors gaming l’avantage est a nVidia.
Niverolle
«&nbsp;c’est le jour et la nuit, ce qui amène parfois certains modes DLSS à dépasser en qualité la résolution native.&nbsp;»<br /> Merci pour la video, mais comme il y a du bon et du mauvais dans chacun des rendus, je trouve que la comparaison n’est pas si facile. De plus on ne peut pas affirmer qu’un rendu est meilleur qu’un autre, si c’est juste une question de dosage de l’acutance (pour ne pas dire de surdosage lorsque cela va à l’encontre de la profondeur de champ). En d’autre terme, si l’on peut retrouver un rendu aussi flatteur d’un simple clic sous Photoshop, c’est que la qualité est en fait similaire. Ce que l’on attend d’une IA c’est justement qu’elle fasse mieux qu’un rehaussement d’agrandissement, en apportant de l’information supplémentaire (tout en limitant la monté du bruit et du moirage). Sauf que justement, s’il faut agrandir l’image à 300% pour pouvoir l’observer (dans certain cas seulement), c’est bien que la démonstration n’est pas «&nbsp;le jour et la nuit&nbsp;». Par contre, l’avantage flagrant du DLSS, c’est qu’il fait d’une pierre deux coup en faisant office d’AA temporel ! Bref, j’ai hâte de voir ce DLAA à l’œuvre, car en général, les bons AA sont des gloutons…
Cantal_Auvergne
«&nbsp;Pour les applications hors gaming l’avantage est a nVidia.&nbsp;»<br /> Non justement tu es plus dépendant du logiciel utilisé que du matos.
Nmut
Alors je n’en sais rien pour les applications de rendu… Mais les AMD sont toujours devant sur l’OpenCL (voir même quelques fois quand c’est Nvidia/Cuda vs AMD/OpenCL), avec une facilité de codage nettement meilleure (gestion mémoire bien plus simple, puissance brute dispo quasiment sans optimisations) à gamme de prix équivalente.<br /> Les applis de rendus ne seraient-elles pas optimisées uniquement pour le Cuda?
nicgrover
J’attends aussi ce DLAA et comme bon nombre de joueurs attendent la résolution des nombreux bugs qui plombent le plaisir de jouer… Le PVP pour exemple…<br /> Et ça n’est pas les maintenances à répétition qui changent quoique ce soit. Et malheureusement le DLAA ne changera rien en ce sens…
mamide
galaxyexpress999:<br /> les tensor cores permettent le raytracing en temps réel<br /> Heh ?? Rien à voir … Le Raytracing est géré par les RT Cores d’ailleurs même chez AMD ils ont des RT Cores … Les tensor cores ne servent presque à rien pour le Gaming !
mamide
ramses_deux:<br /> Pour les gamers, nVidia ou AMD c’est kif kif hein. Pas la peine de tergiverser… a quelques % de difference une fois d’un cote une fois de l’autre.<br /> On parle de Gaming aux dernières nouvelles … et on sait tous que hors gaming Nvidia est devant surtout dans l’encodage vidéo.<br /> crush56:<br /> C’est assez fou de voir à quel point Nvidia avance et innove sur les nouvelles technos<br /> C’est fou à quel point t’es naïf … si t’appelle ça l’innovation ??? y a des gens qui cherchent comment devenir immortel (non c’est pas une blague y a vraiment des recherches sur ça) sans parler des innovations non connues du grand public !<br /> Si Nvidia te présente ces technos … imagine les technos qu’elle ne présente pas et qu’elle garde secrètes <br /> Ce qu’on voit à la Télé c’est pas de la science fiction à 100% … y a des choses qui existent vraiment mais que c’est ultra confidentiel !
mamide
Ta regardé d’autres vidéos ou juste celle là ? y a des jeux où le FSR est meilleur en qualité et en performances faut pas juste voir quelques jeux car tout dépend des développeurs !<br /> Et puis pense ce que tu veux la réalité est là … le FSR est un coup dur pour Nvidia car il ne dépend ni du hardware ni d’un fabricant il est libre en plus facile à intégrer dans les jeux.<br /> Le FSR est à peine arrivé qu’il est déjà intégré à beaucoup de jeux contrairement au DLSS goutte à goutte.
crush56
Ah ok, et les antennes 5G c’est un coup des reptiliens ?
Voir tous les messages sur le forum
Haut de page

Sur le même sujet