Quand NVIDIA s'offre une plongée dans sa conception de la mémoire vidéo

Nerces
Par Nerces, Spécialiste PC & Gaming.
Publié le 20 mai 2023 à 17h30
© NVIDIA
© NVIDIA

Les GPU des cartes graphiques NVIDIA mettent l'accent sur la quantité de cache L2 embarquée… un peu comme les CPU AMD, non ?

Critiqué pour les quantités « limitées » de mémoire vidéo (VRAM) intégrée à ses GeForce, NVIDIA a vu les remarques augmenter lors du récent lancement des GeForce RTX 4070 et à l'annonce des GeForce RTX 4060/4060 Ti.

De la question du cache L2

Trois références qui se distinguent effectivement par la quantité de mémoire de « seulement » 8 Go : pour certains joueurs c'est tout juste correct pour les titres d'aujourd'hui et clairement insuffisant pour ceux de demain.

Schéma d'un GPU Ada Lovelace © NVIDIA
Schéma d'un GPU Ada Lovelace © NVIDIA

Plus critiquée encore, la bande passante de certaines GeForce. Cette fois, avec ses 504,2 Go/s, la RTX 4070 est épargnée, mais les RTX 4060/4060 Ti en prennent pour leur grade. Il est vrai que, sur le papier, la génération 3000 dispose d'un net avantage : les RTX 4060/4060 Ti doivent se contenter de respectivement 272 et 288 Go/s quand les RTX 3060/3060 Ti ont une bande passante de 360 et 448 Go/s.

Si NVIDIA reconnaît une baisse notable – difficile de faire autrement – elle réfute l'importance de ce décalage du fait d'un autre élément à prendre en compte. En effet, les RTX 4060/4060 Ti disposent d'un cache L2 bien plus élevé que leurs ancêtres. Un cache L2 qui serait donc en mesure – d'après la société américaine – de compenser cet écart de bande passante.

© Videocardz

Pour en savoir plus, nous vous invitons à consulter l'article publié par les équipes techniques de NVIDIA sur son blog officiel. Toutefois, nous allons tâcher de clarifier un peu les choses.

NVIDIA multiplie par 8 le cache L2

De la même manière qu'un CPU, un GPU est associé à plusieurs niveaux de mémoire cache lesquels agissent comme des tampons – rapides – avant qu'il soit nécessaire d'accéder à la VRAM. NVIDIA précise, « sur les précédentes GeForce, la mémoire cache était bien moins importante » et le GPU était dans l'obligation d'échanger plus fréquemment avec la VRAM.

© NVIDIA

Les images ci-dessus illustrent les deux cas : à gauche, sur un ancien GPU, l'information absente du cache L2 pousse à se tourner régulièrement vers la VRAM quand, dans le second cas (RTX 4000), le « gros » cache L2 permet de répondre favorablement à bien davantage de sollicitations du GPU. On perd moins de temps à fouiner dans la VRAM qui n'a plus besoin d'être si rapide.

2 Mo de cache L2 vs 32 Mo © NVIDIA

La chose est schématique et pour lui donner plus de corps, NVIDIA a réalisé un test que nous ne pourrons jamais conduire : elle a comparé une RTX 4060 Ti avec un cache L2 de 2 Mo à la carte réelle, avec un cache L2 de 32 Mo. Si le résultat est sans appel, nous aurions toutefois aimé que NVIDIA compare aussi à une RTX 4060 Ti avec une bande passante de 448 Go/s.

© NVIDIA

NVIDIA précise que des applications comme le montage vidéo, la conception architecturale ou l'animation 3D ont d'importants besoins en VRAM. La firme indique que, dans les jeux, cela dépend de la définition d'image et de la taille des textures avant d'ajouter, « dans la plupart des jeux, les deux versions de la GeForce RTX 4060 Ti (8 Go et 16 Go) peuvent jouer avec des paramètres maximums et offriront les mêmes performances ».

Maintenant imminents, les premiers tests – sur la seule version 8 Go de la GeForce RTX 4060 Ti – nous permettront peut-être de vérifier tout cela.

Source : NVIDIA

Par Nerces
Spécialiste PC & Gaming

Tombé dans le jeu vidéo à une époque où il fallait une belle imagination pour voir ici un match de foot, là un combat de tanks dans ces quelques barres représentées à l'écran, j'ai suivi toutes les évolutions depuis quarante ans. Fidèle du PC, mais adepte de tous les genres, je n'ai du mal qu'avec les JRPG. Sinon, de la stratégie tour par tour la plus aride au FPS le plus spectaculaire en passant par les simulations sportives ou les jeux musicaux, je me fais à tout... avec une préférence pour la gestion et les jeux combinant plusieurs styles. Mon panthéon du jeu vidéo se composerait de trois séries : Elite, Civilization et Max Payne.

Vous êtes un utilisateur de Google Actualités ou de WhatsApp ?
Suivez-nous pour ne rien rater de l'actu tech !
Commentaires (0)
Rejoignez la communauté Clubic
Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.
Commentaires (10)
AtomosF

« les deux versions de la GeForce RTX 4060 Ti (8 Go et 16 Go) peuvent jouer avec des paramètres maximums et offriront les mêmes performances »
Bizarre d’affirmer cela d’un point de vue marketing. Après en 1080p c’est sûr que 8Go de VRAM suffit.
Vivement les tests en effet.

santec

mouai et avec cela des jeux optimisé à la pelleteuse sur 8Go de vram ça suffit

eykxas

Suffisait. De plus en plus de jeux commencent à galérer avec seulement 8 Go de vram en 1080.

Principalement à cause de la fainéantise des devs.

v1rus_2_2

Vous voulez des jeux plus beau, plus réaliste? Bah ça signifie une augmentation des polygones, des résolutions des textures, des effets de lumières et des effets de particules.

Juste un pack de texture haute résolution, peu importe la résolution du jeu, va avoir un impact majeur sur la vram

jeanlain

T’aurais mis ça sur la rationalisation des couts de la part des éditeurs de jeux-vidéo, ça aurait été discutable, mais why not.
Mais dire que c’est « à cause de la fainéantise des devs », alors que ces mêmes développeurs se retrouvent à bosser limite comme des esclaves (crunch, etc…) c’est (dans le désordre) : complètement ridicule, idiot et déconnecté de la réalité.

Après vu que t’as l’air bien meilleur, tu devrais te lancer dans le dev de jeux-vidéo. Vu qu’apparemment tu serais en mesure de faire tourner Star Citizen sur un calculatrice, tu feras un malheur :slight_smile:

bennukem

« en mesure de faire tourner Star Citizen sur un calculatrice » c’est tout à fait possible. Juste long, très long, trop long

Jona-85

Je n’imagine pas les performances avec du cache en plus sans toucher au bus mémoire

Nmut

Pas sûr. L’optimisation en amont (optimisation artistique), a justement besoin de pas mal de mémoire pour être efficace…

eykxas

Ce que tu dis n’a aucun sens.

Nmut

Connais tu les moteurs graphiques, avec les utilisations des textures multi passes, les shaders, la gestion du LOD, les différents filtrages, …? Toutes ces techniques peuvent éventuellement faire économiser de la mémoire mais en global en consomme plus, de plus les jeux sont de plus en plus fournis en détails et le résultat, c’est un besoin accru en mémoire (et pas linéairement avec la précision des détails!) si on veut des performances correctes.
Un exemple problématique ces derniers temps: les shaders. C’est mis en lumière par la précompilation pas toujours bien maitrisée dans certains cas (je sais la compilation n’a pas grand chose à voir avec le sujet :stuck_out_tongue: )… Ca permet des effets géniaux ultra performants sur les GPU récents. Si il faut faire des aller-retours en entre la RAM et et la VRAM pour charger / décharger les shaders suivant ce que l’on doit afficher, on perd une bonne partie de l’avantage. Même chose pour les textures dont la réutilisation est optimisée mais si on a pas la VRAM pour les garder, ça ne sert à rien.
Après, ce n’est que mon expérience qui ne concerne pas directement les jeux vidéos. Si tu as des autres infos plus précises, ça m’intéresse.
J’ai un peu de mal avec la prétendue fainéantise des développeurs de moteurs ou de jeux. Quand j’analyse ce qui est affiché dans les jeux actuels, on est vraiment sur de l’utilisation efficace du hardware, surtout impressionnante d’ailleurs par la diversité du matos supporté (puissance brute et facilité de la gestion mémoire du matos AMD, curiosité d’architecture et faiblesse mémoire Intel, efficacité des filtrages et performance des accès mémoire NVidia).