NVIDIA GeForce FX 5900 Ultra (NV35)

Julien
12 mai 2003 à 15h00
0

NVIDIA CineFX 2.0

0096000000057875-photo-logo-nvidia-the-way-it-s-meant-to-be-played.jpg
Avec le NV35, NVIDIA ne s'est pas contenté d'améliorations purement techniques. Le géant de la 3D a en effet quelque peu revu son architecture CineFX qui passe ici en version 2.0. Nous ne reviendrons pas sur les fonctionnalités de l'architecture CineFX qui ont déjà été traitées dans de précédents articles. Tout juste rappelera-t'on que le CineFX excède les spécifications définies par Microsoft pour DirectX 9.0. Les améliorations apportées par le CineFX 2.0 concernent deux points fondamentaux : la puissance en terme de Pixel Shaders et les performances en Antialiasing. Le NV30, prédécesseur du NV35 qui nous préoccupe aujourd'hui, montrait de sérieuses limites dès qu'il s'agissait de travailler avec les Pixels Shaders, un comble pour une carte DirectX 9.0 ! L'une des nouveautés marquantes est donc l'apparition du moteur 'Advanced Pixel Shaders'. Celui-ci est annoncé par NVIDIA comme deux fois plus performant qu'auparavant lorsqu'il s'agit de traiter des Pixel Shaders en virgule flottante. Afin d'améliorer les performances lors du traitement des instructions de type Pixel Shaders, les ingénieurs de NVIDIA ont porté leurs efforts sur l'amélioration des accès mémoire et de l'utilisation du buffer ainsi que sur les prédictions de branchement. Le GeForce FX 5900 Ultra peut donc traiter un maximum de 3600 opérations sur les Pixel Shaders en Floating Point, là où le Radeon 9800 Pro d'ATI ne peut en traiter "que" 3040. Grâce à ces diverses optimisations, la précision de rendu des couleurs sur 128 bits devrait prendre tout son sens. Rappelons que par le biais de DirectX 9.0, le NV35 supporte une précision maximale de 128 bits quand ATI plafonne à 96 bits.


NVIDIA UltraShadow

Le CineFX 2.0 introduit également la nouvelle technologie NVIDIA UltraShadow qui sera notamment utilisée par le futur et très attendu Doom III. Cette nouvelle fonction permet d'accélérer les calculs liés aux ombres. En règle générale chaque source lumineuse d'une scène interagit avec différents objets et un GPU normal doit donc analyser un maximum de paramètres pour rendre les ombres réalistes avec pour effet un ralentissement notable des performances. Le NV35 simplifie et accélère la procédure en utilisant les coordonnées Z de l'espace dans lequel l'ombre est visible afin de réduire les zones à vérifier. Le NV35 ne calcule donc plus que les ombres visibles. Pour ce faire les développeurs doivent simplement spécifier dans leur code les limites de la zone d'ombre. Ce procédé permet d'accélérer le traitement des ombres mais aussi leur complexité. Alors qu'un GPU conventionnel traite les ombres en deux passes, le NV35 effectue le même travail en une seule passe.

01C2000000057876-photo-diagramme-nvidia-ultra-shadow.jpg

NVIDIA UltraShadow : seule l'ombre visible entre les bornes zmin et zmax est calculée



IntelliSample HCT

L'antialiasing n'est pas en reste avec l'apparition de l'IntelliSample HCT, HCT pour High Compression Technology. Derrière ce nom typiquement marketing se cache en réalité une version améliorée de l'IntelliSample. Sur les GeForce FX 5600/5800 la technologie IntelliSample détermine quand les textures, couleurs et données Z peuvent être compressées avec un facteur maximal de 4:1 sans dégrader la qualité de l'image. Avec l'IntelliSample HCT NVIDIA a principalement revu ses algorithmes afin que ceux-ci soient encore plus efficaces qu'auparavant. En outre le mode « qualité » délivre un filtrage anisotropic sur toutes les portions d'une scène là où les autres modes disponibles se contentent d'effectuer un filtrage sur les textures qui en ont le plus besoin. Si beaucoup avait critiqué les précédents Drivers NVIDIA en accusant la compagnie de « tricher » en quelque sorte sur la qualité du lissage, NVIDIA a dorénavant rectifié le tir puisque le mode Qualité est maintenant activé par défaut.

012C000000057908-photo-nvidia-geforce-fx-5900-ultra-rendu-fsaa-4x-aniso-8x-r350.jpg
012C000000057909-photo-nvidia-geforce-fx-5900-ultra-rendu-fsaa-4x-aniso-8x-nv35.jpg

Rendu en FSAA 4x et Aniso 8x du Radeon 9800 Pro (à gauche) comparé à celui du GeForce FX 5900 Ultra (à droite) : Notez que la netteté et le détail semblent plus élevé sur l'image en provenance du GeForce FX (en particulier sur la carapace de la tortue)



La théorie c'est bien beau mais en pratique ça donne quoi ?

Au delà de la théorie il nous faut bien dire que jusqu'à maintenant on avait très peu d'exemples concrets de la qualité de rendu délivrée par le moteur CineFX, démonstrations technologiques NVIDIA mises à part. Fort heureusement cette situation semble évoluer favorablement puisque nombre de développeurs sont actuellement en train d'optimiser leurs futurs jeux pour l'architecture GeForce FX via le programme NVIDIA The Way It's Meant To Be Played. Ce programme est en réalité une sorte de sponsorisation : NVIDIA soutient les développeurs de jeux en leur fournissant un soutien logistique (matériel, technique, etc.) en échange de quoi le jeu est optimisé pour les architectures NVIDIA. C'est le cas des jeux dont les screenshots sont visibles ci-dessous :

012C000000057869-photo-stalker-oblivion-lost.jpg
012C000000057870-photo-stalker-oblivion-lost-2.jpg
012C000000057871-photo-abducted.jpg
012C000000057872-photo-deux-ex-the-invisible-war.jpg
012C000000057873-photo-deux-ex-the-invisible-war-2.jpg

Les jeux Stalker Oblivion Lost, Abducted et Deux Ex Invisible War : de quoi vous mettre l'eau à la bouche


Outre le programme 'The Way It's Meant To Be Played', NVIDIA compte bien entendu sur son langage de développement maison le Cg pour imposer et démocratiser les fonctionnalités spécifiques du CineFX. Pour cela le Cg dispose de quelques atouts redoutables qui lui permettent déjà de remporter les faveurs d'un certain nombre de développeurs. D'un simple clic de souris un shader écrit en CG peut être compilé pour DirectX 8, DirectX 9, GeForce FX ou XBox et fonctionner avec n'importe quel type de GPU. Ainsi à partir du même code le développeur peut créer un jeu qui fonctionne sur un large éventail de plates-formes différentes. Ambitieux le Cg l'est résolument ce qui soulève une certaine polémique. Dans la communauté des développeurs certains craignent à tort ou à raison que le Cg soit un outil permettant à NVIDIA d'imposer ses GPU. La récente annonce d'Electronic Arts qui indique que ses prochains jeux seront optimisés pour les cartes NVIDIA n'est pas pour rassurer... C'est pourquoi ATI, principal (et unique ?) concurrent de NVIDIA, fourbit ses armes avec le Render Monkey (une interface de programmation) et le programme "ATI Get In The Game".
Modifié le 01/06/2018 à 15h36
0
0
Partager l'article :

Les actualités récentes les plus commentées

Amazon : des hackers auraient réussi à contourner la double authentification
Les émissions de CO2 dues à l'automobile ont encore augmenté en 2019, la faute aux SUV
Contenus racistes et haineux : LEGO retire à son tour ses publicités des réseaux sociaux
LDLC : l'e-commerçant high tech Lyonnais annonce officiellement la semaine de 32 heures dès 2021
Reddit bannit un forum pro-Trump, accusé de promouvoir la haine, Twitch suspend sa chaîne
Selon Epic Games, la PS5 est
53 millions de tonnes de déchets électroniques en 2019, un record pas très glorieux
Pour Steve Sinofsky, ex boss de Windows, le Mac sous ARM sera
Airbus officialise la suppression de 5 000 emplois en France, 15 000 au total
Windows : le futur design du menu démarrer montre ses variantes

Notre charte communautaire

  • 1. Participez aux discussions
  • 2. Partagez vos connaissances
  • 3. Échangez vos idées
  • 4. Faites preuve de tolérance
  • 5. Restez courtois
  • 6. Publiez des messages utiles
  • 7. Soignez votre écriture
  • 8. Respectez le cadre légal
  • 9. Ne faites pas de promotion
  • 10. Ne plagiez pas
  • Consultez la charte
scroll top