Gravée par TSMC en 3 nm, la RTX 5090 aurait un bus mémoire 384-bit et du DisplayPort 2.1

Nerces
Spécialiste Hardware et Gaming
19 novembre 2023 à 10h15
18
Une pseudo-carte qui n'a évidemment rien d'officiel © VideoCardz
Une pseudo-carte qui n'a évidemment rien d'officiel © VideoCardz

La prochaine génération de cartes graphiques NVIDIA devrait passer sur un nouveau processus de gravure… entre autres changements.

Sauf accident majeur, le futur des cartes graphiques NVIDIA s'écrira tout au long de l'année 2024 avec les sorties des modèles GeForce RTX série 40 SUPER et il faudra attendre 2025 pour une vraie nouvelle génération.

En effet, la série 50 également connue sous le nom de code Blackwell n'est pas attendue avant au moins dix-huit mois, mais cela ne doit pas empêcher la collecte des premières informations.

Gravure TSMC 3N

En septembre dernier, le magazine DigiTimes expliquait ainsi que NVIDIA avait négocié un contrat de fabrication avec TSMC. La société taïwanaise aura donc à sa charge la production des puces NVIDIA de prochaine génération comme elle le fait déjà avec les composants AMD.

Plus intéressant, DigiTimes expliquait que NVIDIA pourrait compter – en 2025 – sur le meilleur de la technologie TSMC, à savoir le processus de gravure baptisé 3N pour indiquer une finesse de 3 nm. Il s'agit actuellement du nœud de production le plus évolué de TSMC, celui qui est déjà employé sur les puces gravées pour le compte d'Apple.

Une information confirmée par VideoCardz qui en profite pour ajouter une précision utile directement issue des indiscrétions d'un des spécialistes du monde NVIDIA, Kopite7kimi. Alors que l'on avait évoqué la possibilité d'utiliser un bus mémoire 512-bit sur les RTX série 50, on parle aujourd'hui de 384-bit.

VideoCardz rassemble les rumeurs techniques autour de Blackwell © VideoCardz
VideoCardz rassemble les rumeurs techniques autour de Blackwell © VideoCardz

Une bande passante de 1,5 To/s

Parmi les autres spécifications techniques évoquées tout récemment, on retiendra le nom du GPU « principal » de la série 50, le GB202 qui fera donc suite à l'AD102 de la gamme Ada Lovelace.

Aux dernières nouvelles, il serait question d'un total d'une configuration avec 192 multiprocesseurs de flux (à ne pas confondre avec les processeurs de flux d'AMD) pour un total de 24 567 cœurs CUDA à son plein potentiel. NVIDIA profiterait de ce changement de génération pour intégrer de la GDDR7, peut-être à 32 Gbps quand la GDDR6X actuellement employée est en 21 Gbps.

Il résulterait de ce changement une bande passante 50 % supérieure à celle de la GeForce RTX 4090, à 1,5 To/s. Parfois critiqué pour son manque d'ambition dans la prise en charge des spécifications DisplayPort, NVIDIA aurait aussi dans l'idée de proposer le DP2.1 sur ses futurs GeForce RTX série 50, comme peut le faire aujourd'hui AMD avec ses Radeon RX 7000.

Des précisions intéressantes même si elles restent sujettes à caution. Nous aurons de toute façon largement le temps de revenir sur le cas de cette série 50 alors que NVIDIA va d'abord mettre l'accent sur les modèles SUPER de la génération actuelle.

La carte graphique est le composant informatique qui produit les images affichées par un écran. Avec le processeur (CPU), c'est un élément essentiel à votre ordinateur. C'est pourquoi nous avons testé pour vous les meilleurs modèles de GPU disponibles et retenus la crème de la crème de chez NVIDIA, AMD et Intel. Que vous soyez accro au gaming, graphiste 3D, streamer ou vidéaste, nous avons la carte graphique qu'il vous faut.
Lire la suite

Nerces

Spécialiste Hardware et Gaming

Spécialiste Hardware et Gaming

Tombé dans le jeu vidéo à une époque où il fallait une belle imagination pour voir ici un match de foot, là un combat de tanks dans ces quelques barres représentées à l'écran, j'ai suivi toutes les év...

Lire d'autres articles

Tombé dans le jeu vidéo à une époque où il fallait une belle imagination pour voir ici un match de foot, là un combat de tanks dans ces quelques barres représentées à l'écran, j'ai suivi toutes les évolutions depuis quarante ans. Fidèle du PC, mais adepte de tous les genres, je n'ai du mal qu'avec les JRPG. Sinon, de la stratégie tour par tour la plus aride au FPS le plus spectaculaire en passant par les simulations sportives ou les jeux musicaux, je me fais à tout... avec une préférence pour la gestion et les jeux combinant plusieurs styles. Mon panthéon du jeu vidéo se composerait de trois séries : Elite, Civilization et Max Payne.

Lire d'autres articles
Vous êtes un utilisateur de Google Actualités ou de WhatsApp ? Suivez-nous pour ne rien rater de l'actu tech !
google-news

A découvrir en vidéo

Rejoignez la communauté Clubic S'inscrire

Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.

S'inscrire

Commentaires (18)

_Reg24
Futur monstre, avec un prix qui sera lui aussi tout aussi monstrueux!<br /> Réserve au joueurs très fortuné / utilisation pro pour des rendu vidéo / 3D.
SPH
Bon… Je suis curieux de connaitre la consommation d’une telle carte !<br /> Enfin, on a le temps, 2025, ce n’est pas demain (mais après demain, je vous l’accorde)
Catstom
Et consommation de 3000W???
Zimt
Le portrait de David Blackwell n’est pas du tout fidèle mais bon… il faut savoir pardonner…
oudiny
Pour secteur pro uniquement !!
Yorgmald
Peut-on espérer faire du 2,5k natif à plus 100ips ? Et du 4K natif à 60 ips ?<br /> Et tout ça sans artifices de type fg aussi.
bizbiz
«&nbsp;Alors que l’on avait évoqué la possibilité d’utiliser un bus mémoire 512-bit sur les RTX série 50, on parle aujourd’hui de 384-bit.&nbsp;»<br /> Je n’ai jamais compris pour quelle raison NVidia planchait sur des largeurs de bus 192 / 384 alors que la concurrence reste sur les classiques 128 / 256 ?<br /> Quant-au bus 512-bits, je n’en avais plus jamais entendu parler depuis la «&nbsp;flopesque&nbsp;» Matrox Parhelia et le ring bus d’AMD .
gf4
La série 4000 consomme moins que la série 3000, la 4080 plafonne à 320W.
Jona-85
Il va falloir vous renseigner correctement sur la consommation des GPU actuel.
Boeing000
@revan ben voyons c’est pour cela qu’avec une 4080 nous sommes oblige d’avoir une alim 1000W minimum et que toutes les cartes 4000 on un câble spcecial 600w pour les alimenter? les 4000 sont un gouffre en énergie.
kyosho62
Boeing000:<br /> une 4080 nous sommes oblige d’avoir une alim 1000W minimum<br /> Dose… c’est 750W une 4080 et 850W une 4090<br /> Source: Guru3D
crush56
Mais qu’est ce que tu baragouines ?<br /> 1 - NVidia conseille une alim de 750w pour la 4080<br /> 2 - 750w c’est pour tout ton pc dans son intégralité, pas uniquement ta carte graphique<br /> 3 - il a raison, nvidia parle d’un consommation max de 320w et les tests le confirment<br /> IMG_0215500×1330 69.8 KB
Jona-85
Je possède une 4070 relier sur un connecteur 8 pin. ( Inno3D )
Nerces
Ma 4090 tourne sur une machine avec une alimentation 850W depuis bientôt un an.
wackyseb
Avec une 700W pour Intel Core i5 et 750W au dessus. T’es plus que large avec 1000W<br /> Même avec une RTX 3080, Ryzen 9 3900x, une 750W tient la route.<br /> Le passage à une alim 1000W pour tester n’a rien apporté. La consommation à la prise 230V n’a jamais dépassé 600W en crête. Avec 3 SSD Pci-e, un lecteur/graveur bluray (oui je sais il sert à rien), un Disque dur et 6 ventilos de 140.<br /> On est large
hakylon
@Boeing000, oui avec un 12900KS et une 4090 la conso moyenne est de 680w 700w en utlisation.<br /> la recommendation dune alimentation 1000W c’est pour la coherence du systeme, qui generalement est aussi equiper d’un CPU qui potentiellement consomme egalement.<br /> le probleme ce sont les piques de conso qui peuvent aller titiller les alimentation de 750w 800w, alors pour eviter tout incident, instabilitees, ca recommande du 1000W.<br /> (Par ailleur, bien souvent, si tu peux acheter ces composants haut de gamme, tu peux aussi acheter l’alimentation 1000W qui va avec )
Mindview
Le design a déjà fuité: https://www.youtube.com/watch?v=PgBFTYdm0MM
dante0891
Mdr on verra une optimisation atroce.<br /> Un jeu de qualité Super Nes prendre 100% du GPU pour afficher difficilement 30ips XD<br /> Blague à part, mais ça ne m’étonnerais même pas que l’opti soit encore au rabais sur les grosses résolutions…
Voir tous les messages sur le forum
Haut de page

Sur le même sujet