Quand NVIDIA s'offre une plongée dans sa conception de la mémoire vidéo

Nerces
Spécialiste Hardware et Gaming
20 mai 2023 à 17h30
17
© NVIDIA
© NVIDIA

Les GPU des cartes graphiques NVIDIA mettent l'accent sur la quantité de cache L2 embarquée… un peu comme les CPU AMD, non ?

Critiqué pour les quantités « limitées » de mémoire vidéo (VRAM) intégrée à ses GeForce, NVIDIA a vu les remarques augmenter lors du récent lancement des GeForce RTX 4070 et à l'annonce des GeForce RTX 4060/4060 Ti.

De la question du cache L2

Trois références qui se distinguent effectivement par la quantité de mémoire de « seulement » 8 Go : pour certains joueurs c'est tout juste correct pour les titres d'aujourd'hui et clairement insuffisant pour ceux de demain.

Schéma d'un GPU Ada Lovelace © NVIDIA
Schéma d'un GPU Ada Lovelace © NVIDIA

Plus critiquée encore, la bande passante de certaines GeForce. Cette fois, avec ses 504,2 Go/s, la RTX 4070 est épargnée, mais les RTX 4060/4060 Ti en prennent pour leur grade. Il est vrai que, sur le papier, la génération 3000 dispose d'un net avantage : les RTX 4060/4060 Ti doivent se contenter de respectivement 272 et 288 Go/s quand les RTX 3060/3060 Ti ont une bande passante de 360 et 448 Go/s.

Si NVIDIA reconnaît une baisse notable – difficile de faire autrement – elle réfute l'importance de ce décalage du fait d'un autre élément à prendre en compte. En effet, les RTX 4060/4060 Ti disposent d'un cache L2 bien plus élevé que leurs ancêtres. Un cache L2 qui serait donc en mesure – d'après la société américaine – de compenser cet écart de bande passante.

© Videocardz
© Videocardz

Pour en savoir plus, nous vous invitons à consulter l'article publié par les équipes techniques de NVIDIA sur son blog officiel. Toutefois, nous allons tâcher de clarifier un peu les choses.

NVIDIA multiplie par 8 le cache L2

De la même manière qu'un CPU, un GPU est associé à plusieurs niveaux de mémoire cache lesquels agissent comme des tampons – rapides – avant qu'il soit nécessaire d'accéder à la VRAM. NVIDIA précise, « sur les précédentes GeForce, la mémoire cache était bien moins importante » et le GPU était dans l'obligation d'échanger plus fréquemment avec la VRAM.

NVIDIA GPU « vieux » cache L2 © NVIDIA
NVIDIA GPU cache L2 « moderne » © NVIDIA

© NVIDIA

Les images ci-dessus illustrent les deux cas : à gauche, sur un ancien GPU, l'information absente du cache L2 pousse à se tourner régulièrement vers la VRAM quand, dans le second cas (RTX 4000), le « gros » cache L2 permet de répondre favorablement à bien davantage de sollicitations du GPU. On perd moins de temps à fouiner dans la VRAM qui n'a plus besoin d'être si rapide.

2 Mo de cache L2 vs 32 Mo © NVIDIA
2 Mo de cache L2 vs 32 Mo © NVIDIA

La chose est schématique et pour lui donner plus de corps, NVIDIA a réalisé un test que nous ne pourrons jamais conduire : elle a comparé une RTX 4060 Ti avec un cache L2 de 2 Mo à la carte réelle, avec un cache L2 de 32 Mo. Si le résultat est sans appel, nous aurions toutefois aimé que NVIDIA compare aussi à une RTX 4060 Ti avec une bande passante de 448 Go/s.

© NVIDIA
© NVIDIA

NVIDIA précise que des applications comme le montage vidéo, la conception architecturale ou l'animation 3D ont d'importants besoins en VRAM. La firme indique que, dans les jeux, cela dépend de la définition d'image et de la taille des textures avant d'ajouter, « dans la plupart des jeux, les deux versions de la GeForce RTX 4060 Ti (8 Go et 16 Go) peuvent jouer avec des paramètres maximums et offriront les mêmes performances ».

Maintenant imminents, les premiers tests – sur la seule version 8 Go de la GeForce RTX 4060 Ti – nous permettront peut-être de vérifier tout cela.

Source : NVIDIA

Nerces

Spécialiste Hardware et Gaming

Spécialiste Hardware et Gaming

Tombé dans le jeu vidéo à une époque où il fallait une belle imagination pour voir ici un match de foot, là un combat de tanks dans ces quelques barres représentées à l'écran, j'ai suivi toutes les év...

Lire d'autres articles

Tombé dans le jeu vidéo à une époque où il fallait une belle imagination pour voir ici un match de foot, là un combat de tanks dans ces quelques barres représentées à l'écran, j'ai suivi toutes les évolutions depuis quarante ans. Fidèle du PC, mais adepte de tous les genres, je n'ai du mal qu'avec les JRPG. Sinon, de la stratégie tour par tour la plus aride au FPS le plus spectaculaire en passant par les simulations sportives ou les jeux musicaux, je me fais à tout... avec une préférence pour la gestion et les jeux combinant plusieurs styles. Mon panthéon du jeu vidéo se composerait de trois séries : Elite, Civilization et Max Payne.

Lire d'autres articles
Vous êtes un utilisateur de Google Actualités ou de WhatsApp ? Suivez-nous pour ne rien rater de l'actu tech !
google-news

A découvrir en vidéo

Rejoignez la communauté Clubic S'inscrire

Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.

S'inscrire

Commentaires (17)

AtomosF
« les deux versions de la GeForce RTX 4060 Ti (8 Go et 16 Go) peuvent jouer avec des paramètres maximums et offriront les mêmes performances »<br /> Bizarre d’affirmer cela d’un point de vue marketing. Après en 1080p c’est sûr que 8Go de VRAM suffit.<br /> Vivement les tests en effet.
santec
mouai et avec cela des jeux optimisé à la pelleteuse sur 8Go de vram ça suffit
eykxas
Suffisait. De plus en plus de jeux commencent à galérer avec seulement 8 Go de vram en 1080.<br /> Principalement à cause de la fainéantise des devs.
Core-ias
Un jeu n’est pas qu’un truc de dev.<br /> Le diagramme UML est même plutôt compliqué rien qu’à la représentation de l’équipe qui est en plusieurs sous équipes avec de multiples interactions.<br /> Les bugs arrivent plus tard. Il y a même des équipes de devs saboteurs qui corrigent des bugs et rajoutent d’autres bugs ailleurs.<br /> Souvent c’est quand le produit se fait pirater, mais l’impact est même pour les honnêtes.
v1rus_2_2
Vous voulez des jeux plus beau, plus réaliste? Bah ça signifie une augmentation des polygones, des résolutions des textures, des effets de lumières et des effets de particules.<br /> Juste un pack de texture haute résolution, peu importe la résolution du jeu, va avoir un impact majeur sur la vram
jeanlain
T’aurais mis ça sur la rationalisation des couts de la part des éditeurs de jeux-vidéo, ça aurait été discutable, mais why not.<br /> Mais dire que c’est « à cause de la fainéantise des devs », alors que ces mêmes développeurs se retrouvent à bosser limite comme des esclaves (crunch, etc…) c’est (dans le désordre) : complètement ridicule, idiot et déconnecté de la réalité.<br /> Après vu que t’as l’air bien meilleur, tu devrais te lancer dans le dev de jeux-vidéo. Vu qu’apparemment tu serais en mesure de faire tourner Star Citizen sur un calculatrice, tu feras un malheur
bennukem
« en mesure de faire tourner Star Citizen sur un calculatrice » c’est tout à fait possible. Juste long, très long, trop long
Jona-85
Je n’imagine pas les performances avec du cache en plus sans toucher au bus mémoire
Nmut
Pas sûr. L’optimisation en amont (optimisation artistique), a justement besoin de pas mal de mémoire pour être efficace…
Core-ias
GPU H100 Tensor Core | NVIDIA<br /> HBM3, le paradis des mineurs de crypto ?
eykxas
Ce que tu dis n’a aucun sens.
Nmut
Connais tu les moteurs graphiques, avec les utilisations des textures multi passes, les shaders, la gestion du LOD, les différents filtrages, …? Toutes ces techniques peuvent éventuellement faire économiser de la mémoire mais en global en consomme plus, de plus les jeux sont de plus en plus fournis en détails et le résultat, c’est un besoin accru en mémoire (et pas linéairement avec la précision des détails!) si on veut des performances correctes.<br /> Un exemple problématique ces derniers temps: les shaders. C’est mis en lumière par la précompilation pas toujours bien maitrisée dans certains cas (je sais la compilation n’a pas grand chose à voir avec le sujet )… Ca permet des effets géniaux ultra performants sur les GPU récents. Si il faut faire des aller-retours en entre la RAM et et la VRAM pour charger / décharger les shaders suivant ce que l’on doit afficher, on perd une bonne partie de l’avantage. Même chose pour les textures dont la réutilisation est optimisée mais si on a pas la VRAM pour les garder, ça ne sert à rien.<br /> Après, ce n’est que mon expérience qui ne concerne pas directement les jeux vidéos. Si tu as des autres infos plus précises, ça m’intéresse.<br /> J’ai un peu de mal avec la prétendue fainéantise des développeurs de moteurs ou de jeux. Quand j’analyse ce qui est affiché dans les jeux actuels, on est vraiment sur de l’utilisation efficace du hardware, surtout impressionnante d’ailleurs par la diversité du matos supporté (puissance brute et facilité de la gestion mémoire du matos AMD, curiosité d’architecture et faiblesse mémoire Intel, efficacité des filtrages et performance des accès mémoire NVidia).
eykxas
Un exemple précis : Forspoken a été développé avec la PS5 comme plateforme lead. Le jeu a été hardcodé pour la vram alloué par la PS5. Soit 12 go. Les devs ont correctement exploité les 12 go qui était à leur disposition. Ça c’est très bien.<br /> Quand il est venu le temps de créer le portage PC, là ils ont fait face à des tas de problèmes. Comme ils avaient pas anticipé la gestion de mémoire différente entre une console et un PC, ils avaient deux choix possible : revoir la gestion de la mémoire mis en place pour s’accommoder des contraintes du matos PC (ce qui prends beaucoup de temps et d’argent) ou tailler dans le gras en priant pour que ça passe, et au pire on fera des patch après.<br /> Je te laisse deviner qu’elle a été la solution choisi… Elle est là la fainéantise des devs. Mais c’est pas vraiment de leur faute, ils sont contraint par leur éditeur. Mais contre c’est de leur faute que de ne pas avoir dit : « non on peut pas sortir un jeu dans cet état là ».<br /> Après quand je dis « les devs » je devrais dire le studio. Car c’est à tout les niveaux que des choix sont fait, que des décisions sont prises. Et malheureusement c’est systématiquement le choix de la facilité / simplicité qui est fait.<br /> Regarde RedFall ! Tu vas pas me dire qu’ils étaient pas au courant de tous les problèmes ? Bien sûr que si qu’ils le savaient. La plupart du temps c’est même fait exprès. « Il faut produire, il faut que ça sorte, donc on corrigera plus tard ».<br /> Et concernant la vram il y a un vrai problème de ce côté là. Les GPU les plus performants ont souvent beaucoup de vram. AMD et les console de 9e gen popularise le + de 8 go de vram. Et que vont faire les studios ? Ils vont développer en priorité pour +8. Et pour ceux qui auront 8 et moins, on fait au plus simple : deux trois options pour tailler dans le gras, tant pis pour eux si ils auront un jeu degueulasse.<br /> Ils pourraient très bien faire en sorte que le jeu soit top avec 8 Go de ram. Mais comme ça prendrait du temps et des ressources ils font le choix de délaisser les config milieu et bas de gamme. C’est en cela qu’ils sont « fainéants » (d’une certaine manière).
Nmut
Alors, oui, je suis tout à fait d’accord si ton « développeurs fainéants » veut dire « studio qui ne donne pas les moyens aux développeurs » (quelque soit la raison, mais bien sûr finalement toujours financière! ).<br /> Cependant, il ne faut pas s’attendre au miracle. Les jeux qui sont encensés comme « bien optimisés » ont juste trouvé des bons compromis dev / artistique. Une analyse fine permet de voir que souvent l’impression de détails et le réalisme sont juste dus à quelques tricks habilement choisis, mais souvent techniquement ce ne sont pas les meilleurs images et les plus génériques, il y a souvent une plateforme « sweet spot » précise (souvent console d’ailleurs comme tu le remarques).
MattS32
eykxas:<br /> Mais contre c’est de leur faute que de ne pas avoir dit : « non on peut pas sortir un jeu dans cet état là ».<br /> C’est pas parce que ça sort qu’ils ne l’ont pas dit… Si tu savais le nombre de fois où j’ai levé ce genre d’alerte (pas dans le domaine du jeu vidéo, mais c’est pas mieux ailleurs) sans que ça soit pris en compte…<br /> Et en partie à raison d’ailleurs, parce que les développeurs ils ont tendance à être dans la position extrême inverse par rapport aux financier : ils veulent que ça soit absolument parfait avant de sortir. Sauf qu’un logiciel absolument parfait, dans les faits, ça n’a à peu près aucune chance d’exister dès que tu dépasses une certaine taille. Et du coup si t’attends que ça soit parfait, ben au final tu sors jamais rien, et donc y a jamais d’argent qui rentre…<br /> Après, c’est sûr que des fois les financiers tombent dans l’excès inverse et considèrent que dès que ça marchotte, même si c’est avec une béquille et une jambe de bois, ça peut sortir…<br /> Mais le juste milieu est parfois difficile à trouver, et au final c’est quand même quasiment toujours ceux qui tiennent les cordons de la bourse qui ont le dernier mot… Quitte parfois à ce que les dév se protègent en faisant signer au préalable un document avec la liste des soucis connus et rappelant qu’ils ont levé l’alerte…
Core-ias
revoir la gestion de la mémoire mis en place pour s’accommoder des contraintes du matos PC (ce qui prends beaucoup de temps et d’argent)<br /> Cela me rappel Windows 7 avec l’indice de performance.<br /> Windows 8 l’a eu, sous Windows 8.1 il s’est fait éjecté du ring.<br /> Que dire de la console de Nintendo ? (it a miracle !)
PyratOne
NVIDIA…<br /> ils, ne s’offrent rien du tout, sauf de se payer la têtes de leurs clients… Évidemment !<br /> Depuis la sortie de leurs premières RTX, NVIDIA a pris un changement de directions plus que critiquable à bien des égards.<br /> C’est un secret de polichinelles quils ambitionnent de fournir des cartes aux studios de cinéma pour leurs effets spéciaux qui leurs permettraient des économies énormes (sur le personnel et les risques de fuites, comme de tailles des infrastructures et un gain de temps (qui seraient tout autant voir plus plus d’économies supplémentaires)à la constructions de leurs films bourrés d’effets spéciaux et d’animations.<br /> Sauf que de pouvoir faire passer une industrie qui traite images par images en y passant des heures à du temps réel… Nécessité de leurs proposer une puissance de traitement énormes.<br /> Et nous… Nous ne sommes là plus pour payer leurs R&amp;D a chaque avancée progrès dans le domaine… Et donc nous elles générations de cartes…<br /> Ava t les évolutions suivaient nos besoins de joueurs maintenant elles suivent celles de l’IA, de l’armée et du cinéma…<br /> Normal que les prix soit en conséquences.<br /> Le marché du jeu vidéo est lucratif certes, mais que dire de celui de l’IA mais également du cinéma ajouté à celui ci, et très probablement de l’armée de manière très étendues … Dans un futur proche a plus ou moins court terme pour encore une fois NVIDIA<br /> Oui dans 10-15 ans quand Mr tt le monde pourra enfin jouer en Path Tracing nous aurons droit à ce GAP graphiques tsnt attendu depuis des générations de consoles et cartes graphiques mais qui ne veut plus vraiment se montrer comme à certaines époques du passé pas si lointain.
Voir tous les messages sur le forum
Haut de page

Sur le même sujet