On décrypte le DLSS 3.5 et le ray reconstruction sur Cyberpunk 2077 2.0

Nerces
Spécialiste Hardware et Gaming
25 septembre 2023 à 16h46
20
© NVIDIA
© NVIDIA

La sortie de Cyberpunk 2077: Phantom Liberty est l’occasion pour NVIDIA de mettre l’accent sur une innovation technique supplémentaire baptisée ray reconstruction. La société en profite d’ailleurs pour introduire ce qu’elle appelle le DLSS 3.5, histoire d’enfoncer le clou par rapport à AMD qui peine encore à distribuer son FSR 3.

Deep Learning Super Sampling ou DLSS

La version « 1.0 » du DLSS est encore relativement récente puisque lancée en février 2019. Il s’agissait alors simplement d’une technique d’upscaling loin d’être convaincante. Deux jeux avaient surtout été utilisés pour mettre en avant les atouts de cette nouveauté, Battlefield V et Metro Exodus. Un double exemple qui illustrait aussi un problème majeur pour NVIDIA : le besoin d’ajuster les choses jeu par jeu.

Le DLSS2 apportait déjà une belle amélioration © NVIDIA
Le DLSS2 apportait déjà une belle amélioration © NVIDIA

À peine plus d’un an plus tard, DLSS 2 est toutefois lancé et, pour être honnête, on considère souvent que c’est le véritable point de départ de la technologie de NVIDIA. DLSS est là pour Deep Learning Super Sampling ou Super Échantillonnage assisté par l’Intelligence Artificielle. L’idée, vous la connaissez sans doute : demander au GPU de procéder au rendu des images dans une définition d’image plus faible que celle qui doit être réellement affichée, l’intelligence artificielle intervenant pour « remplir les trous ».

Avec cette version 2, le DLSS fait appel aux cœurs Tensor mis en place par NVIDIA. Non content d’améliorer le résultat graphique obtenu par ce super échantillonnage et de signer de meilleures performances, le DLSS 2 est surtout l’occasion pour la société au caméléon de passer à un « entraînement générique ». Il ne serait alors plus nécessaire de travailler les jeux de manière individuelle comme c’était le cas auparavant : à la clé, un gain de temps et de ressources non négligeable pour NVIDIA comme pour les studios.

Avec le DLSS 3, NVIDIA a introduit le frame generation © NVIDIA
Avec le DLSS 3, NVIDIA a introduit le frame generation © NVIDIA

Reste que cela ne suffisait toujours et que pour garder une longueur d’avance sur le concurrent de toujours – AMD – NVIDIA a lancé en septembre 2022, en même temps que les GeForce RTX 4000, le DLSS 3. Pourquoi en même temps que la nouvelle génération de cartes graphiques ? Car le DLSS 3 se distingue principalement par le frame generation (ou génération d’images) lequel ne serait tout simplement pas gérable par les cœurs Tensor de 3ᵉ génération qui équipent les RTX 3000, il faut des cœurs de 4ᵉ génération.

Pour faire simple, l’intelligence artificielle ne se contente plus ici de « combler les manques » pour autoriser une image plus fine que celle calculée par le GPU. Non, grâce à l’optical flow accelerator, le DLSS 3 prend des informations sur la direction et la vitesse des pixels des images précédentes pour, de lui-même, générer la totalité de certaines images intermédiaires. Ainsi, NVIDIA s’amuse à dire qu’avec le DLSS 3, 8 pixels sur 10 sont maintenant générés par l’intelligence artificielle plutôt que calculés par le GPU.

Avant le ray reconstruction, les évolutions ont déjà été nombreuses © NVIDIA
Avant le ray reconstruction, les évolutions ont déjà été nombreuses © NVIDIA

DLSS 3.5 et le ray reconstruction

Vous l’aurez compris en lisant le titre de cet article ou si vous avez suivi les récentes annonces de NVIDIA, ce n’est toujours pas suffisant pour le promoteur des GeForce. Toutefois, plutôt que de parler de DLSS 4, NVIDIA préfère DLSS 3.5 pour valider l’arrivée d’une nouveauté majeure, le ray reconstruction. Vous vous en doutez sûrement, le terme ray fait référence au ray du ray tracing. En bon français, ray reconstruction peut donc se traduire par reconstruction de rayons.

Schéma de fonctionnement d'un pipeline de rendu ray tracing © NVIDIA
Schéma de fonctionnement d'un pipeline de rendu ray tracing © NVIDIA

Afin de mieux comprendre la chose, il convient de savoir comment un jeu vidéo s’affiche. En premier lieu, le moteur graphique se charge de tout ce qui est géométrie et matières de la scène à reproduire. On ne parle pas encore de rendu de la lumière et des ombres, mais des éléments géométriques et de leurs matériaux dépendent les « conditions » à partir desquelles il sera possible de déterminer les interactions avec les sources lumineuses. C’est à ce niveau que le ray tracing entre en action.

Les denoisers entrent en action © NVIDIA
Les denoisers entrent en action © NVIDIA

À l’occasion d’un précédent article, Clubic avait déjà évoqué le ray tracing. Pour faire simple, l’idée est d’envoyer des rayons depuis la caméra jusqu’à l’objet à éclairer. En fonction du chemin parcouru par ce rayon, les éclairages pourront être déterminés sachant que ledit rayon peut – en fonction du matériau « d’arrivée » – rebondir pour atteindre un autre objet puis rebondir encore et encore. Dans le cas de Portal RTX, NVIDIA précise que 20 rayons par pixels sont envoyés et que jusqu’à 8 rebonds sont pris en compte.

Quelques un des défauts liés à l'utilisation des denoisers © NVIDIA
Quelques un des défauts liés à l'utilisation des denoisers © NVIDIA

Ce travail de rebonds terminé pour chaque pixel, une espèce de plan d’ensemble est obtenu avec tout ce qui est éclairage, ombre, occlusion ambiante et réflexion. Un plan qui reste cependant bruité, moucheté, avec d’importants « manques ». C’est là qu’intervient le denoiser qui doit permettre d’aboutir à un rendu « propre » au travers de deux méthodes. La première, chronologique, se base sur les images précédentes pour « imaginer » le résultat et la seconde, spatiale, interpole les pixels avec leurs voisins.

Le denoiser rend la mise à l'échelle moins précise © NVIDIA
Le denoiser rend la mise à l'échelle moins précise © NVIDIA

Problème, le denoiser est imparfait et le résultat en ray tracing peut même être qualifié d’approximatif dans pas mal de cas que les détracteurs de la technique n’ont pas manqué de souligner. Les exemples ci-dessus illustrent certaines des situations les plus extrêmes comme le rétroviseur d’une voiture en mouvement qui se trouve « démultiplié » sur plusieurs frames. Un autre problème peut être le manque de données pour parvenir à une interpolation détaillée, notamment lors de reflets fugaces dans une flaque d’eau.

Schéma général du fonctionnement du DLSS3.5 © NVIDIA
Schéma général du fonctionnement du DLSS3.5 © NVIDIA

Ce dernier point est d’autant plus gênant que NVIDIA a longtemps martelé que le rendu obtenu via le DLSS 3 est équivalent, « voire supérieur », au rendu natif. Il serait évidemment dommage qu’ajouter une technique comme le ray tracing vienne battre en brèche une communication bien rodée… surtout que les ressources GPU dégagées par le DLSS 3 sont justement là pour autoriser ce même GPU à réaliser d’autres tâches, le ray tracing par exemple.

Le ray reconstruction est plus « intelligent » que les denoisers © NVIDIA
Le ray reconstruction est plus « intelligent » que les denoisers © NVIDIA

C’est précisément le rôle du ray reconstruction intégré au DLSS 3.5. L’idée est ici de combiner l’étape de débruitage du denoiser et celle de mise à l’échelle du DLSS 3 en une seule. Ainsi associées, les deux étapes disposent de plus d’informations pour aboutir à un résultat de meilleure qualité.

De meilleurs effets de lumière grâce à davantage d'informations © NVIDIA
De meilleurs effets de lumière grâce à davantage d'informations © NVIDIA

Ensuite seulement est pris en compte ce que NVIDIA baptise le temporal feedback, autrement dit le retour d’informations lié aux précédentes images et, une fois que la mise à l’échelle est – proprement – réalisée, il devient possible de passer à l’étape de frame generation qui, NVIDIA insiste bien sur ce point, est complètement distincte du ray reconstruction. D’ailleurs, dans Cyberpunk 2077: Phantom Liberty, il est possible d’activer l’un sans l’autre autant que l’un avec l’autre, même si chacun apporte son petit plus.

Clarifions les choses

En quelques années, NVIDIA a lancé de nombreuses technologies et il n'est pas toujours évident de s'y retrouver, de savoir qui fait quoi ou qui est compatible avec quoi.

© NVIDIA
© NVIDIA

Le petit tableau ci-dessus permet de fixer un peu les choses. Ainsi, il faut comprendre que DLSS 3 et DLSS 3.5 sont bien distincts. Le premier ajoute le frame generation tandis que le second ajoute le ray reconstruction.

Le frame generation impose d'avoir des cœurs Tensor de 4e génération, donc une RTX 4000. Le ray reconstruction, pour sa part, n'a besoin que d'une carte RTX et fonctionne donc très bien avec une « vieille » 2070.

Quelques exemples visuels

NVIDIA a bien sûr été prompt à diffuser images et vidéos pour illustrer l’apport du ray reconstruction via le DLSS 3.5. Des publications qui ont d’ailleurs été à l’origine d’un embargo « original ». Juste pour vous faire part de ce que l’on peut parfois « subir », voici le détail des dates d’embargo accompagnant Cyberpunk 2077: Phantom Liberty et le DLSS 3.5 en fonction de ce que l’on veut publier. Pourquoi faire simple quand on peut faire compliqué !

Les multiples dates d'embargo à respecter © NVIDIA
Les multiples dates d'embargo à respecter © NVIDIA

Sans surprise, les captures NVIDIA viennent illustrer la supériorité du ray reconstruction, notamment dès qu’il est question de reflets. Les deux premiers exemples sont on ne peut plus parlants, même si cela ne concerne qu’une fraction de l’image. Les inscriptions que l’on peut voir dans les reflets sont illisibles sans le ray reconstruction, car le DLSS n’a pas assez d’informations pour mettre à l’échelle sans trop « flouter » l’ensemble.

NVIDIA DLSS3.5 et Cyberpunk 2077 © NVIDIA
L'impact sur la netteté dans les reflets est très net © NVIDIA
L'impact sur la netteté dans les reflets est très net © NVIDIA

En revanche, nous sommes moins convaincus par le troisième exemple affiché par NVIDIA. Ce dernier permet de mettre en avant une meilleure gestion de l’éclairage (regardez les phares), mais cela ne saute pas forcément aux yeux, surtout sur une capture. Notez effectivement que certaines améliorations du ray reconstruction sont bien plus visibles sur des scènes en mouvement.

Regardez bien le cône lumineux des phares © NVIDIA
Regardez bien le cône lumineux des phares © NVIDIA

Les illustrations officielles, c’est bien, mais si nous avons attendu ce 25 septembre pour vous parler du DLSS 3.5, c’est aussi et surtout pour vous présenter nos propres captures. Non qu’elles soient meilleures, mais plutôt qu’elles viennent attester, sur des exemples peut être moins promotionnels, le bien-fondé de la technologie du ray reconstruction.

NVIDIA DLSS3.5 et Cyberpunk 2077 © Nerces
NVIDIA DLSS3.5 et Cyberpunk 2077 © Nerces
 Natif, DLSS 3 (frame generation) et DLSS 3.5 (frame generation + ray reconstruction) © Nerces pour Clubic
Natif, DLSS 3 (frame generation) et DLSS 3.5 (frame generation + ray reconstruction) © Nerces pour Clubic

Trois exemples (largement zoomés), d'abord en natif, puis avec le frame generation activé puis en rajoutant le ray reconstruction. Sur ces exemples, le résultat est nettement en faveur de la dernière option avec, juste, un écueil : sur la première série, voyez comme le passage protégé perd en détails par rapport au natif. La preuve qu'il subsiste quelques (très rares) défauts.

Avec le frame generation seul, puis épaulé par le ray reconstruction © Nerces pour Clubic
Avec le frame generation seul, puis épaulé par le ray reconstruction © Nerces pour Clubic
En mode natif, puis avec frame generation et ray construction © Nerces pour Clubic
En mode natif, puis avec frame generation et ray construction © Nerces pour Clubic

Sans qu'il soit question de démultiplier les exemples, il peut être intéressant de comparer les rendus de manière plus directe. Pour ce faire, nous opposons frame generation et frame genetation + ray reconstruction en haut avant d'opposer natif et frame genetation + ray reconstruction. À vous de vous faire votre propre idée !

Et les performances, ça dit quoi ?

Terminons avec quelques mesures dont l'objectif est de se donner une idée de l’impact du ray reconstruction alors que l’apport graphique du ray tracing / path tracing est également synonyme de chute drastique des performances. Nous avons ici utilisé une GeForce RTX 4090 FE avec un processeur Ryzen 9 5900X épaulé par 64 Go de RAM. Tous les détails étaient au maximum et le path tracing activé. Deux définitions d’image ont été retenues (2 560 x 1 440 et 3 840 x 2 160) et, à chaque fois, nous avons réalisé quatre mesures :

  • DLSS désactivé
  • DLSS équilibré avec frame generation et ray reconstruction
  • DLSS équilibré avec frame generation, mais sans ray reconstruction
  • DLSS équilibré sans frame generation, mais avec ray reconstruction

Cette dernière est là pour « la beauté du geste » dans la mesure où les deux technologies sont, tout de même, faites pour cohabiter.

© Nerces pour Clubic
© Nerces pour Clubic

Des résultats bien sûr plus parlants en 3 840 x 2 160, mais des conclusions assez similaires peuvent malgré tout être tirées en 2 560 x 1 440. Bien sûr, en natif, les performances s’effondrent et sur une RTX 4090, même le 1 440p n’est pas fluide si le path tracing s’en mêle. En revanche, on voit que le ray reconstruction apporte un petit boost de performances appréciable, même si ça ne sera pas suffisant pour rendre jouable un jeu qui rame.

Le DLSS 3.5 est encore tout frais. Le ray reconstruction nous arrive tout juste et Cyberpunk 2077: Phantom Liberty est le premier titre d’une série que l’on espère longue. De l’aveu de développeurs comme de NVIDIA, il y a encore du travail pour que cette technologie exprime son plein potentiel, mais on peut d’ores et déjà exprimer un grand « OUI » alors qu’elle vient remédier aux petits soucis rencontrés çà et là avec le frame generation, ainsi que, plus généralement, avec la mise à l'échelle du DLSS.

À l’usage, en pleine partie, les apports sont évidemment moins visibles, mais pour autant, plusieurs paires d’yeux ont constaté le même « saut » qualitatif. L’image est plus nette, certains éléments ressortent davantage et les reflets gagnent en lisibilité. Alors que les performances sont également (quoique légèrement) en hausse, on ne voit aucune raison de se priver. Une fois encore, un grand « OUI » pour le ray reconstruction.

Nerces

Spécialiste Hardware et Gaming

Spécialiste Hardware et Gaming

Tombé dans le jeu vidéo à une époque où il fallait une belle imagination pour voir ici un match de foot, là un combat de tanks dans ces quelques barres représentées à l'écran, j'ai suivi toutes les év...

Lire d'autres articles

Tombé dans le jeu vidéo à une époque où il fallait une belle imagination pour voir ici un match de foot, là un combat de tanks dans ces quelques barres représentées à l'écran, j'ai suivi toutes les évolutions depuis quarante ans. Fidèle du PC, mais adepte de tous les genres, je n'ai du mal qu'avec les JRPG. Sinon, de la stratégie tour par tour la plus aride au FPS le plus spectaculaire en passant par les simulations sportives ou les jeux musicaux, je me fais à tout... avec une préférence pour la gestion et les jeux combinant plusieurs styles. Mon panthéon du jeu vidéo se composerait de trois séries : Elite, Civilization et Max Payne.

Lire d'autres articles
Vous êtes un utilisateur de Google Actualités ou de WhatsApp ? Suivez-nous pour ne rien rater de l'actu tech !
google-news
Rejoignez la communauté Clubic S'inscrire

Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.

S'inscrire

Commentaires (20)

Wicked_Larkin
Un vrai décryptage de pro, comme d’habitude. Bravo Nerces !
Jona-85
L’intelligence artificielle n’est pas plutôt un filtre pour améliorer la qualité de l’image ? Je suis d’avis avec Pecore. Ce n’est pas normal d’avoir une plus belle image que la définition native.
zekkawa
Bravo Nerces pour ce super article, heureusement qu’il a Robin et toi pour maintenir le niveau chez Clubic !<br /> J’ai activé sur le jeu en 2.0 le Ray Reconstruction et Frame Generation, je trouve qu’il y a beaucoup de ghosting/temporal artifact.<br /> C’est vriament visible, au point que je me demande si je n’ai pas un pb de configuration.<br /> @nerces, meme si c’est subjectif, tu rencontres ce genre de pb?
Nerces
zekkawa:<br /> je trouve qu’il y a beaucoup de ghosting/temporal artifact<br /> Sur les scènes rapides, avec pas mal d’éclairage sur les côtés, j’ai rencontré ça, mais de la à dire «&nbsp;beaucoup&nbsp;», je ne sais pas. Difficile.<br /> Après, ce que j’aime avec le ray reconstruction c’est que c’est surtout un outil de plus et gratuit : dans le pire des cas, si le joueur trouve ça moins bien, il suffit de ne pas l’activer.<br /> Je ne suis pas non plus très chaud à l’idée de dire «&nbsp;mieux que natif&nbsp;» ou d’ailleurs «&nbsp;moins bien que natif&nbsp;» dans la mesure où je vois plutôt le truc comme un outil pour améliorer le DLSS, pas pour se placer en face du natif qui, de toutes façons, est beaucoup plus lent.
crush56
Le dlss c’est quand même une révolution, surtout le frame génération, je ne m’attendais pas du tout à ce que ça fonctionne aussi bien
Jona-85
Frame génération avec le DLAA sans activer le dlss 2.0,il faut avouer que l’image est superbe ( ratchet and Clank)
jvachez
C’est normal d’avoir des défauts, c’est «&nbsp;baclé&nbsp;» car un traitement normal d’upscaling met normalement plusieurs secondes juste pour une seule image.
AtomosF
Un bon article merci.<br /> «&nbsp;Le ray reconstruction, pour sa part, n’a besoin que d’une carte RTX et fonctionne donc très bien avec une « vieille » 2070.&nbsp;»<br /> L’arnaque que Nvidia avait bien caché c’est que pour pouvoir l’activer, il faut mettre le DLSS en mode «&nbsp;Overdrive&nbsp;» (sur C2077 évidemment, seul jeu compatible), or ce mode ne fonctionnera pas sur RTX 20. Et une 3080 semble le minimum pour du 1440p.
Pronimo
Heureusement qu’il y’a ce genre de bricoles pour faire tourner les jeuxvideos a notre époque… Enfin j’exagère quand meme, mais je souviens dans le temps de la sortie du 1er Bioshock, en plus de la mâchoire qui tombe pour un jeu aux graphismes révolutionnaires, c’etait aussi les poches vides pour y jouer convenablement. Comme quoi, les temps changeants, les habitudes non ^^
Sacrilege83
J’ai testé ce que la 3090 permet avec tout ça, c’est correct et jouable de façon fluide, mais c’est pas au niveau d’une série 4000non plus niveau perfs, ça c’est sûr.<br /> La 3090 montre ses limites avec CP 2077 2.0 (tout à fond), elle ne peut plus gérer plus que ça niveau charge.
Azrek
Mais moi il y a une question que je me pose… comment ça peut être plus jolie avec le dlss que sans dlss à savoir que lorsqu’il n’y a pas de dlss même si le jeu ram l’image est dans sa plus haute définition…
Nerces
Joli est un terme subjectif – certains préféreront, d’autres non – mais le DLSS vient traiter l’image et, en ce sens, il ne présente pas une copie parfaite du rendu natif.
Nerces
AtomosF:<br /> L’arnaque que Nvidia avait bien caché c’est que pour pouvoir l’activer, il faut mettre le DLSS en mode « Overdrive » (sur C2077 évidemment, seul jeu compatible), or ce mode ne fonctionnera pas sur RTX 20. Et une 3080 semble le minimum pour du 1440p.<br /> « Arnaque », un peu fort, non ?<br /> Cela dit, Cyberpunk 2077 est le premier à prendre en charge la fonctionnalité, attendons quand même que deux ou trois autres soient disponibles avant de tirer à boulets rouges.<br /> Alan Wake 2, c’est pour bientôt déjà…
Jona-85
Je me pose exactement cette question. Pecore aussi.
dede63
C’est surtout pour vendre des jeux ( vive le partenariat nVidia/AMD et Intel )parce que les développeur ne veulent plus se prendre la tête à optimiser leurs jeux.<br /> Pour moi, le DLSS,FSR et Xess doit servir au petite carte à atteindre les 60 fps, mais quand ont voie des Benchs avec des 4090 ne pas dépassé les 60 en natif, c’est que les grosse boite de prod veulent gagniez du temps et zapper l’opti. Ils peuvent dire merci aux concepteur de carte graphique.
Core-ias
Il me semblait que le ray tracing c’est correction des lumières/couleurs et calcul de beaucoup plus de reflet de sources «&nbsp;lumineuses&nbsp;» (les objets au plus proche de la source n’étant peut-être pas reflété sur une surface qui en a besoin, ex : miroir).<br /> Pour l’instant les images (fixes) ressemblent à du réchauffées (bien que splendide, parfois le résultat est celui du pré calculé). Les vidéos un gains de perfs non négligeable.<br /> Le HDR10 est calculé par l’écran selon certaines sources sur le net. L’illusion de profondeur 3D l’ait peut-être aussi.<br /> En tout cas, le chanceux qui à toutes les nouvelles techno en même temps est bien celui qui peut pleinement en profité (je présume).<br /> @Funkee Comparer X-OR 2 et IRON MAN. Le premier en DVD et le second en Bluray 4K 3D. Il y a vraiment un truc qui fonctionne pas si on veut du upscaling qui ne passe pas deepfake.
Funkee
Dans quelle définition joue tu ? En 1080p même avec le DLSS en qualité (path tracing, RR et frame gen ON) il y a beaucoup de ghosting et d’artefact. Avec une 4070 ou plus, tu peux désactiver le DLSS et le remplacer par le DLAA. En 1440p c’est déjà beaucoup mieux et tu peux désactiver l’effet de grain de pellicule et les aberrations chromatiques pour un rendu plus net. En 4K c’est impeccable mais il faut au moins une 4080 pour en profiter dans le bonnes conditions.
dFxed
Merci @Nerces pour l’article
Feunoir
Si on entre dans le detail, le gpu positionne les elements 3D et leur met leurs textures, met les effet de shading et l’eclairage<br /> Une fois tout en place il y a une projection sur une surface plane pour obtenir ce que l’on va voir.<br /> Cette projection ne peut être parfaite, aliasing/escaliers en sont le premier defaut, quand il y a une vitre,miroir ou de l’eau cela peut faire d’autre defaut de non déviation de l’image<br /> Que ce soit en dlss ou sans, cette phase est exactement pareil.<br /> Sans dlss, on va souvent essayer de corriger les escaliers avec l’antialiasing, qui font pour la plupart du flou et parfois on des soucis sur les surfaces transparentes/bords de lumieres, donc le natif + AA c’est perfectible<br /> Le dlss lui est plus proche des algorithme qu’il y a dans les appareils photos recents et les smartphones, un smartphone sait comment une photo doit être net en bord d’image même en gros zoom, cela sait comment cela doit être la ou il y a(ou pas) de la lumière(enleve le bruit en basse lumière), cela sait que des yeux ne sont pas rouges… donc cela tente de corriger tous ces défauts.<br /> Ici le dlss sait, avec son apprentissage sur des milliers d’images, que le bord des polygones ne doit pas etre avec des pixels en escalier, il sait qu’une plaque en métal n’est pas censée être floue, il sait qu’un grillage c’est pas flou dans les trous du grillage…<br /> Avec ce dlss 3.5 il sait même que les effets RTX cela ne doit pas être pixelisé donc la phase de denoising a pu être supprimer pour gagner des fps.<br /> Donc le dlss corrige tous les défauts que cela connait. Cela fait le boulot même en partant d’une définition inférieure pour gagner du coup des fps au passage (dlss) ou en upscalant vers au dessus pour faciliter l’antialiasing (dlaa)<br /> En allant plus loin, la génération IA va générer de plus en plus de contenu surement jusqu’à remplacé carrément les textures et shader quand la puissance «&nbsp;IA&nbsp;» suivra<br /> Un simple stable diffusion cela peut faire sur mon pc en local en partant d’un stock limité de données &lt;8go (en mode touriste donc)<br /> postapocalyptic steampunk city, exploration, cinematic, realistic, hyper detailed, photorealistic maximum detail, volumetric lig<br /> image1035×572 90.3 KB<br /> Cela part de différentes données, cela sait que cela doit ressemblé à une ville cassée, cela m’a fait cela juste avec le texte tapé au dessus de l’image.<br /> Donc qu’une phase d’apprentissage pour améliorer le resultat de la projection 3D vers le plan/camera améliore l’image finale cela ne me semble plus si étonnant, un jeu cela ne doit pas être flou et même plus net à cet endroit, et le dlss le fait<br /> Quand on arrivera a générer des images généré par IA en flux continu en guidant bien le résultat et à permettre le mouvement, c’est même la 3d qui ne servira plus et c’est probablement le chemin vers le photo réalisme complet (et surement la mort du cinéma, …dans pas mal d’année)
Jona-85
Merci pour cette explication très détaillé et d’avoir pris le temps de l’écrire
Aegis
Merci @Nerces pour cet excellent article.<br /> C’est très largement au-dessus du niveau habituel. Deux ou trois comme ça par semaine et je suis prêt à payer un abonnement mensuel. Tu ne voudrais pas trouver un ou deux comme toi et créer un site comme hardware.fr de la grande époque?
Nerces
C’est gentil, mais au-delà même de la question des compétences, je ne pense pas avoir l’énergie pour une telle entreprise
Voir tous les messages sur le forum
Haut de page