DLSS : NVIDIA fait déjà des plans sur la comète autour d'une dixième version

25 septembre 2023 à 18h00
12
© NVIDIA
© NVIDIA

La technologie de super-sampling de NVIDIA dopée à l'intelligence artificielle aurait visiblement de beaux jours devant elle.

Actuellement dans sa version 3.5, inaugurée par la mise à jour 2.0 de Cyberpunk 2077 et Phantom Liberty, le DLSS devrait continuer de profiter des évolutions de l'IA. Dans le cadre d'une discussion à la table de Digital Foundry, l'un des représentants de NVIDIA a en tout cas indiqué que ce processus devrait atteindre son apogée avec le DLSS 10, rien que ça.

Plus d'IA chez NVID-IA

NVIDIA ne cache pas son amour de l'intelligence artificielle, eût égard à l'impressionnante croissance que cette technologie qui a le vent en poupe lui a apportée. Une belle histoire qui a commencé très tôt avec le DLSS, profitant de l'IA (et plus précisément un réseau neural) pour améliorer les performances en jeu.

Nous en sommes aujourd'hui au DLSS 3.5, qui vient améliorer la qualité du ray tracing grâce à la fonctionnalité Ray Reconstruction, ainsi que les performances grâce à une optimisation de la génération d'images, introduite dans le DLSS 3. Ceci malheureusement à condition de disposer d'une carte graphique RTX 4000.

© Nerces
© Nerces

Interrogé par Digital Foundry, Bryan Catanzaro, le vice-président de la recherche appliquée sur le deep learning, a indiqué que la technologie propriétaire de NVIDIA ne va cesser d'évoluer grâce à l'IA. Dans un futur encore très lointain, l'homme table sur le fait que la version 10 du DLSS pourrait se charger du processus de rendu entièrement grâce à un système neural.

L'IA : le moteur des jeux de demain ?

« Je pense que, à long terme, l'industrie graphique va se tourner vers l'IA générative pour le processus de rendu. La raison est simple : nous sommes capables d'apprendre des fonctions bien plus complexes en nourrissant un réseau avec une masse de données qu'en construisant manuellement des algorithmes », indique Bryan Catanzaro.

Selon lui, l'utilisation d'un système de réseau neural interagissant avec un moteur de jeu est ce qui permettra d'atteindre de nouveaux sommets en matière de qualité visuelle. « Je pense que nous pourrons obtenir un réalisme accru et aussi, espérons-le, faire en sorte qu'il soit moins cher de créer des environnements AAA époustouflants grâce à un rendu par réseau neural ».

Cela va sans dire qu'une telle prédiction arrangerait bien NVIDIA, qui a énormément investi de ressources dans l'intelligence artificielle. Pour en revenir au DLSS, la technologie devrait d'ailleurs bientôt profiter de nouvelles fonctionnalités gérées par un réseau neural comme le cache radial et la compression de textures. Mais cela nécessitera fatalement de nourrir l'appétit d'ogre de l'IA, et donc d'ajouter toujours plus de Tensor Cores à ses futures cartes graphiques comme les RTX 5000.

Robin Lamorlette

Fan absolu de tech, de films/séries, d'heroic-fantasy/SF et de jeux vidéos type RPG, FPS et hack&slash qui se shoote à coups de lore sur Star Wars, The Witcher, Cyberpunk, Game of Thrones et Donjons &...

Lire d'autres articles

Fan absolu de tech, de films/séries, d'heroic-fantasy/SF et de jeux vidéos type RPG, FPS et hack&slash qui se shoote à coups de lore sur Star Wars, The Witcher, Cyberpunk, Game of Thrones et Donjons & Dragons/Baldur's Gate 3.

Lire d'autres articles
Vous êtes un utilisateur de Google Actualités ou de WhatsApp ? Suivez-nous pour ne rien rater de l'actu tech !
google-news

A découvrir en vidéo

Rejoignez la communauté Clubic S'inscrire

Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.

S'inscrire

Commentaires (12)

AtomosF
Le DLSS 20 remplacerait même le joueur !
flateric_oyzo
moi je n’y comprend plus rien. de toute façon les options sont interdites d’activation sur mes rtx 3000 et 4000 dans cyberpunk v2 avec les driver 537.42; sauf le pathtracing qui écroule les performances à tel point que ça en devient débile d’inventer des techno de rendu aussi inefficace. Du coup le dlla ne sert à rien non plus puisqu’on ne peut pas l’enclencher concomitamment avec les dlss. Si l’ia s’occupe de faire les décors des jeux…on va avoir le même décor dans tous les jeux parceque elle simule plus la connerie réelle des humains en fin de compte que leur intelligence.
trollkien
Je trouve vraiment borderline de limiter les nouveautés technologiques uniquement aux nouveaux produits et meme pas a la gen précedente, surtout au rythme ou ca va…<br /> Bref les generations rtx 30XX, même encore cher payées aujourd’hui, peuvent aller de faire enc…
Nerces
Quelles options sont interdites ? La seule chose que je vois d’impossible est l’activation de DLAA et DLSS sur Cyberpunk v2 avec pilotes 537.42.
crush56
Le dlaa c’est exactement le dlss, sauf que contrairement au dlss où tu calcules une résolution inférieure pour te restituer une image upscalée par IA, le dlaa te fait calculer une résolution X et restituer la même résolution mais dont l’image a été améliorée. Faire fonctionner les deux en même temps n’aurait pas de sens.<br /> Et c’est étonnant que tu n’aies pas le dlss de disponible.<br /> Pour le frame generation tu dois d’abord l’activer sur windows puis redémarrer :<br /> Cherchez « Paramètres graphiques » dans la barre de recherche du système, cliquez ensuite sur « Modifier les paramètres graphiques par défaut » et vérifiez que l’option « Planification du processeur graphique à accélération matérielle » est bien activée.10 sept. 2023<br />
flateric_oyzo
la generation d’images (rtx4000) ET la reconstruction de rayons (toute les rtx)
Nerces
Tu as Cyberpunk v2, tu as une RTX 4000 et tu ne peux pas activer la « Reconstruction de rayons DLSS » ? As-tu bien activé le "Ray-tracing : accélération » pour les préréglages ?<br /> Cyberpunk 2077 v21280×600 94.9 KB<br /> De plus, comme l’explique flateric_oyzo, il faut que la « Planification du processeur graphique à accélération matérielle » (quel nom !) soit activée sous Windows, mais normalement Cyberpunk 2077 te le dit si ce n’est pas le cas.<br /> Panification1346×819 73.8 KB
flateric_oyzo
Si j’ai le dlss2.<br /> Paramètres graphiques de windows? mais non? vraiment? mais oui en fait! mais put1n pourquoi windows? non de deus mais mrde! c’est quoi ce bordle des paramètres à la khon partout et dans tout les sens? zut, flute, crotte, chier.
pecore
Tant que le DLSS, qu’il soit 10, 20 ou 30, nécessitera des cartes Nvidia pour tourner et des machines Nvidia pour être implémenté, je n’y verrai qu’un monopole créé de toutes pièce pour enfermer joueurs et concepteurs dans une dépendance aux produits Nvidia.<br /> Et tant que les personnes un peu informées ne dirons pas haut et fort que le meilleur DLSS, c’est celui qu’on a pas besoin d’activer, parce que la puissance de la carte suffit déjà à faire tourner le jeu dans la résolution souhaitée, ce n’est pas près de s’arrêter.
Morlac
Je suis bien d’accord avec toi pécore, mais bordel les jeux de cette année sont optimisés à la truelle ! Harry Potter, RE4, TLOU, maintenant la palme avec Starfield…<br /> Si tu joues en 1080p ça va mais sinon… adieu les frames<br /> Le seul jeu vraiment fluide que j’ai fait cette année c’est BG3, et encore, à l’acte 3 les fps s’écroulent…
juju251
flateric_oyzo:<br /> Si j’ai le dlss2.<br /> Paramètres graphiques de windows? mais non? vraiment? mais oui en fait! mais put1n pourquoi windows?<br /> Parce que c’est le système d’exploitation et qu’il contrôle l’accès au matériel ?
darkkanga
Bonjour,<br /> On en revient au fondamentaux ! L’optimisation est la prem6dee verrues pour avoir un programme fonctionnel. C’est bien joli de vouloir améliorer les graphismes et la résolution par ia pour augmenter le framerate. Les jeux seraient mieux optimisé a la base, on gagnerait aisément quelques FPS.
Nmut
Ce n’est pas si simple.<br /> On arrive a des limites physiques pour le rastering (taille et puissance électrique des puces). Le DLSS est une façon d’optimiser le code et le hardware indispensable pour continuer à améliorer les graphismes. Je pense que le débat devrait plutôt être sur le vrai besoin d’amélioration…
pecore
C’est en effet une partie du débat : a t’on vraiment besoin de toutes ses améliorations récentes, dont l’utilité n’est pas toujours flagrante.<br /> Les consoles Nintendo nous prouvent presque génération après génération qu’on peut faire beaucoup avec peu, à condition de s’en donner la peine. Et de nombreux jeux, dont le récent Starfield, nous démontrent qu’il est tout à fait possible d’avoir des effets d’éclairage sans Ray Tracing gourmand.<br /> Mais comme je disais plus haut, ici il y a système de dépendance qui a été savamment crée et c’est très mauvais pour l’industrie car cela crée une position ultra dominante qui permet de fixer ses conditions tant aux joueurs qu’aux concepteurs et même à beaucoup d’influenceurs. On impose aux concepteurs de faire des jeux toujours plus beaux et plus gourmands, aux joueurs d’avoir du matériel toujours plus récent et surtout, de la bonne marque et aux influenceurs de s’en extasier ou, du moins, de ne pas critiquer, sous peine de blacklistage.<br /> Le DLSS participe de ce système en plein et donc il est attendu qu’il soit autant mis en avant. Mais en réalité, c’est un boulet au pied qu’on s’est attaché nous même. La réalité c’est qu’avec la puissance des cartes et des CPU d’aujourd’hui, surtout comparés aux consoles de jeu, on ne devrait pas en avoir besoin.
Nmut
Je suis assez d’accord avec toi.<br /> pecore:<br /> Le DLSS participe de ce système en plein et donc il est attendu qu’il soit autant mis en avant. Mais en réalité, c’est un boulet au pied qu’on s’est attaché nous même. La réalité c’est qu’avec la puissance des cartes et des CPU d’aujourd’hui, surtout comparés aux consoles de jeu, on ne devrait pas en avoir besoin.<br /> Mais si on considère que l’on les choses doivent évoluer, le DLSS est pour moi une étape logique, cela permet un gain significatif avec un cout réduit. Et non, la puissance des cartes graphiques n’est pas (et ne sera pas avant longtemps) suffisante pour ne pas avoir à utiliser des super tricks pour afficher de la 4k. Il faut bien voir que la 4k, c’est 8 fois plus de pixels, des textures 8 fois plus lourdes et si on veut vraiment exploiter l’affichage, une géométrie au moins 2x plus lourde que le 1080p. Donc à la louche 128x plus de boulot que du FHD.<br /> Même pour le FHD, si tu regardes une image d’un jeu pas trop moche, tu t’aperçois qu’il faut bien plus que la puissance des cartes actuelles pour afficher les images en «&nbsp;brute force&nbsp;» (pas d’assets redondants, pas de lod, pas de clipping ou tricks sur le zbuffer, etc).
Voir tous les messages sur le forum
Haut de page

Sur le même sujet