🔴 French Days en direct 🔴 French Days en direct

NVIDIA : une fuite majeure détaille l'ensemble de la future gamme Ada Lovelace

Nerces
Spécialiste Hardware et Gaming
18 avril 2022 à 14h45
20
© NVIDIA
© NVIDIA

La nouvelle génération de cartes graphiques NVIDIA n'est toutefois pas attendue avant, au mieux, septembre 2022.

Souvenez-vous, il y a quelques semaines, NVIDIA était victime d'une attaque ayant permis le vol de nombreuses données. Aujourd'hui, ces données remontent à la surface, au grand dam du fabricant.

96 Mo de cache L2 sur le GPU AD102 ?

En effet, et même s'il convient de prendre le recul nécessaire face à toutes ces « informations », le vol de données organisé par le groupe Lapsus$ permet aujourd'hui de décrypter de multiples informations liées à la future gamme de cartes graphiques de NVIDIA, les fameuses Lovelace.

© Semi Analysis
© Semi Analysis

Les cinq références supposées de cette nouvelle gamme sont à mettre en face des cinq références de la gamme Ampere. D'emblée, c'est bien sûr le processus de fabrication qui distingue les deux générations : du Samsung 8N sur Ampere et du TSMC 4N pour la future Lovelace.

Au-delà de ça, on note surtout une très large augmentation de la quantité de cache L2 embarqué : on passe de 6 Mo à 96 Mo sur les modèles les plus musclés… comme pour contrer l'Infinity Cache d'AMD. Le nombre de cœurs Cuda augmente aussi nettement et il en va en réalité de même pour tous les compartiments du GPU.

Il y a toutefois une exception notable, dans la mesure où NVIDIA semble reconduire les mêmes bus d'interface mémoire d'une génération à l'autre. Le 128-bit des modèles d'entrée de gamme aura encore un peu plus de difficulté à nous convaincre.

Source : Semi Analysis

Nerces

Spécialiste Hardware et Gaming

Spécialiste Hardware et Gaming

Tombé dans le jeu vidéo à une époque où il fallait une belle imagination pour voir ici un match de foot, là un combat de tanks dans ces quelques barres représentées à l'écran, j'ai suivi toutes les év...

Lire d'autres articles

Tombé dans le jeu vidéo à une époque où il fallait une belle imagination pour voir ici un match de foot, là un combat de tanks dans ces quelques barres représentées à l'écran, j'ai suivi toutes les évolutions depuis quarante ans. Fidèle du PC, mais adepte de tous les genres, je n'ai du mal qu'avec les JRPG. Sinon, de la stratégie tour par tour la plus aride au FPS le plus spectaculaire en passant par les simulations sportives ou les jeux musicaux, je me fais à tout... avec une préférence pour la gestion et les jeux combinant plusieurs styles. Mon panthéon du jeu vidéo se composerait de trois séries : Elite, Civilization et Max Payne.

Lire d'autres articles
Vous êtes un utilisateur de Google Actualités ou de WhatsApp ? Suivez-nous pour ne rien rater de l'actu tech !
google-news

A découvrir en vidéo

Rejoignez la communauté Clubic S'inscrire

Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.

S'inscrire

Commentaires (20)

SPH
Merci Cluclu pour ce court article qui nous laisse entrevoir ce que sera la prochaine génération de GPU <br /> « La nouvelle génération de cartes graphiques NVIDIA n’est toutefois pas attendue avant, au mieux, septembre 2022. »<br /> Bin, septembre 2022, c’est demain (ça passera vite, vous verrez)
pecore
Donc la nouvelle génération sera gravée plus fin, aura plus de coeurs et plus de mémoire cache. Vous sentez pas comme une bonne odeur de prix totalement prohibitifs, encore ?
_Reg24
Je crains aussi que les prix MSRP seront excessifs, tu y ajoute la pénurie / scalpeur / mineur et tu ne trouvera pas de 4090 à moins de 2000$.<br /> Wait and see.
pecore
Il sera en effet TRÈS intéressant de comparer les perfs 3090 Vs 4080, pour voir quels progrès auront été faits niveau architecture.
Pernel
Après ceux qui ont une 3090 compte rentabiliser un minimum (logique), je doute qu’ils changent a chaque gen, enfin moi non en tout cas. Après « normalement » (si on suit le schéma qu’ils utilisaient avant), la 4070 devrait être peu ou prou une 3090 en perf (si c’est pas le cas, c’est du foutage de tronche (même sans prendre en compte les 2 ans entre les deux).<br /> Après comme d’habitude, prenez des GPU au MSRP (ou proche), je sais c’est chiant en ce moment (enfin ça va mieux déjà), sinon ils en profiteront pour monter encore les prix.<br /> Pour les FE, qui sont obligatoirement au MSRP, c’est soit chez NVidia ou LDLC (et ils font payer les frais de ports les sa**ds).
Pernel
Je généralise, il y aura toujours des gens pour changer (j’ai même vu des gens passer d’une 3080 10Go a une 3080 12Go …). Après c’est sûr que si la next gen a 30% de perf en plus, consomme moins et ne coûte pas plus cher, j’y songerais aussi mais je ne crois pas aux fables ^^<br /> (mais j’aimerais être surpris bien entendu)
philumax
Chez Nvidia, ils devraient prendre un contrat avec Nettflix.
MattS32
Pernel:<br /> Après ceux qui ont une 3090 compte rentabiliser un minimum (logique), je doute qu’ils changent a chaque gen<br /> J’aurais tendance à penser le contraire. Pour moi ceux qui prennent ce genre de cartes ultra haut de gamme, entrent essentiellement dans deux catégories :<br /> des professionnels qui ont un réel bénéfice à chaque pouillème de performances en plus,<br /> des kékés fortunés qui veulent absolument avoir la plus grosse.<br /> Pour les autres, c’est vraiment pas rentable d’opter pour ce genre de cartes. Par exemple pour le gamer raisonnable, autant la différence entre une 3070 et une 3080 peut se justifier, pour garder la carte significativement plus longtemps, autant entre une 3080 et une 3090, le passage du simple au double ne se justifie pas, la 3090 aura grosso modo la même durée de vie, les 5-10% de performances en plus ne permettront pas de la faire durer ne serait-ce que un an de plus…<br /> Donc au final, ceux qui ont le plus de chances de remplacer une carte de nième génération par une carte de génération n+1, ce sont ceux qui avaient déjà la meilleure de la génération n. Les autres utilisateurs de génération n attendront pour leur part sans doute n+2 ou n+3, si ce n’est plus.
DrCarter95
Faudra voir l’ampleur de la consommation électrique aussi…
Pernel
Sans oublier ceux qui travaillent et ont voulu se faire un gros plaisir pour quelques temps, ceux qui ont dû changer de GPU et qu’il n’y avait que ça sur le marché, ceux qui jouent en 4K et qui ont donc besoin de pas mal de puissance.
Urleur
Au final, la génération 3 est passé comme une lettre à la poste, je vais me rabattre sur la 4, on est plus à quelques mois près.
kisama56
Une conso maîtrisée au niveau de Pascal svp
bafue
Doux rêve …
eykxas
Heu… si les informations sont vrais, on fait x2 en puissance par rapport à Ampere. Si c’est pas fou… je sais pas ce qu’il vous faut ^^
eykxas
Quasi les mêmes specs ? Oo tu es sur d’avoir bien regardé ?<br /> La puce AD102 (qui sera dans une potentiel 4080 ou 4090) propose 18 432 core cuda ! Comparé au 10 752 d’une 3090 Ti. C’est déjà 71% de plus ! (et on a aussi plus de TMUs, plus de ROPs, plus de RT core, plus de Tensor core et plus de cache qui se rapprocherait de l’infinity cache d’AMD).<br /> Ensuite, si le tableau est juste ces puces devrait utiliser le process N4 de TSMC. Qui est une petite évolution du N5 (6% de densité en plus dixit TSMC). Sauf que, il faut prendre en compte que le 8nm de Samsung est assez mauvais. Inférieur au N7 de TSMC. Bref si ce N4 est bien vrai on saute deux génération de process !<br /> Quand tu vois que les cartes AMD n’ont aucun mal a dépasser les 2 Ghz en TSMC N7, Nvidia n’aura aucun mal à le faire en N4. Les modèles les plus haut de gamme seront largement à 2.2Ghz. (avec sans doute encore un peu de marge, mais mieux vaut être prudent, 2.2 est déjà très conservateur vu que c’est ce que fait AMD en N7 or là on serait en N4).<br /> Et il ne faut pas oublier que Nvidia va sans doute encore optimiser un peu plus son architecture par rapport à Ampere.<br /> Donc quand je dis x2 en puissance je ne tiens compte que du nombre de core et de la fréquence. On sait pas si on aura une meilleure mémoire, de meilleures core Tensor, de meilleures RT Core etc… Donc je suis peut être encore loin de la réalité.
craxxou
comme d’hab rien de nouveau.
Voir tous les messages sur le forum
Haut de page

Sur le même sujet