🔴 Soldes d'été : jusqu'à - 50% sur le high-tech 🔴 Soldes d'été : jusqu'à - 50% sur le high-tech

GeForce RTX 4090/4080/4070 : un nouveau leak vient revoir les spécifications

23 juin 2022 à 16h30
36
NVIDIA rtx
© NVIDIA

Dans son dernier tweet, kopite7kimi redistribue quelques cœurs CUDA à la GeForce RTX 4090, mais rabote la VRAM de la GeForce RTX 4070.

Avec la régularité d’un métronome, kopite7kimi livre régulièrement ses prédictions sur les spécifications des prochaines cartes graphiques Ada Lovelace de NVIDIA, les GeForce RTX 4000. En revanche, le contenu est moins constant : les conjectures changent assez souvent. Que voulez-vous, l'art divinatoire n'est pas à la portée de tous. Bon, au moins, à force de multiplier les hypothèses, certaines finiront par tomber juste…

16 384 cœurs CUDA pour la RTX 4090 finalement

Alors qu’il annonçait 16 128 cœurs CUDA pour la GeForce RTX 4090 à la mi-mai, à contre-courant des 18 432 régulièrement évoqués, kopite7kimi a désormais revu sa copie : le fleuron des RTX 4000 aura – jusqu’au prochain tweet – 128 multiprocesseurs de flux (SM), soit 16 384 cœurs CUDA.

Notez que le GPU AD102, qui doit équiper cette carte graphique, est supposé autoriser jusqu’à 144 SM. Cela laisserait une belle marge pour une potentielle RTX 4090 Ti ou Titan.

Les autres caractéristiques de la GeForce RTX 4090 n’ont pas changé depuis quelques semaines. La carte graphique aurait 24 Go de GDDR6X à 21 Gbit/s et un TDP de 450 W ; il fut question de 600 W à une époque, voire de 800 W.

RTX4000 © VideoCardz

La RTX 4070 perd 2 Go de VRAM !

Au sujet des GeForce RTX 4080 et RTX 4070, respectivement basées sur les GPU AD-103 et AD-104, kopite7kimi livre également quelques chiffres. Il mentionne 80 SM soit 10 240 cœurs CUDA pour la première, avec 16 Go de GDDR6. La vitesse mémoire serait de 18 Gbit/s, l’interface de 256 bits. Rappelons que la GeForce RTX 3080 possède 10 Go de GDDR6X et un bus de 320 bits, et la version lancée en début d’année, la GeForce RTX 3080 SUPRIM X, 12 Go de GDDR6X et un bus de 384 bits.

La GeForce RTX 4070 mobiliserait 56 SM, soit 7 168 cœurs CUDA. Surtout, cette référence ne proposerait non pas 12 Go de GDDR6 comme annoncé précédemment, mais seulement 10 Go. Le bus mémoire serait de 160 bits, contre 192 bits présumés auparavant.

Vous le constatez, à chaque leak ses spécifications. Alors, allons-y nous aussi de notre scoop : à carte de série équivalente, les GeForce RTX 4000 seront plus performantes que les GeForce RTX 3000. Voilà, vous savez tout. Sinon, plus sérieusement, NVIDIA doit lancer sa nouvelle génération de cartes graphiques grand public avant la fin d’année 2022, peut-être dès l’automne.

D'anciens tweets, pour l'historique :

Source : VideoCardz

Soyez toujours courtois dans vos commentaires.
Respectez le réglement de la communauté.
36
21
SPH
Pour ma part, les 4000 ne m’intéressent pas du tout. Les jeux qui en profiteront arriveront dans X années…
turrican59
Moi ça m’intéresse avec la montée des fréquences des écrans hummm . Je vais revendre ma 3090 .
utada_hikaru
De la pure connerie les tdp, je le dis et je le répète ça n’a aucun sens, on passe du 8nm samsung dégueulasse au 4nm tsmc, sans même doubler les perfs mais on augmenterait quand même la conso, de la pure connerie.<br /> Je reste sur mon idée, hors 4090 qui semble être fortement devant le reste en terme de perf, les autres baisseront leurs conso.<br /> rtx 4070 +60-80% de perf pour un tdp de 200 watts, c’est écrit et gravé sur clubic, par contre pour la vram je sais pas mais j’espère que c’est faux le 10go, déjà 12go je trouvais ça limite.
Eric87
Leak? C’est quoi ?
v1rus_2_2
Fuite
crush56
Tu entends quoi par en profiter ?<br /> Selon les exigences actuelles on peut mettre à genoux une 3090 ti, et on pourra sans aucun doute le faire avec une 4090
pecore
On peut supposer que plus on s’approche de la date de sortie effective et plus les leaks auront des chances d’être fiables mais force est de constater qu’on en est pas encore là.<br /> Je trouve en effet certains info assez douteuses, comme la différence d’augmentation des cuda entre la 4090 et la 4080 (+56% Vs +18%) ou même le fait que la 4070 aura une augmentation des cuda supérieure au modèle au dessus. +28% pour les 4080 m’aurait semblé plus crédible.
AtomosF
En 4k oui, ce qui concerne 2% des joueurs (stats steam).<br /> Hors 4k, sans même parler de DLSS, les cartes actuelles sont quand même relativement suffisantes (surtout en 1080p, aucune n’est à genou).<br /> Il faudra attendre des gros jeux AAA basé sur l’UE5 (à priori pas avant 2024) pour avoir mieux que… Cyberpunk sortie en 2020.
SPH
Je veux dire que si le parc d’ordi est en 3080, peu d’éditeurs de jeux vidéo n’oseront sortir un CyberPunk 8K. A la limite, ça aura pour vertu d’optimiser les moteurs graphiques.
zekkawa
Alors :<br /> @AtomosF le rendu en 4k natif, ca ne sert a rien, meme les gars de Digital Foundry le disent, c’est total overkill, 1440p est la meilleur des resolution<br /> @turrican59 pour le framerate, si tu vois une difference au-dessus de 60 fps: chapeau, mais c’est possible. au dessus de 90 c’est comme la 4k : ca ne sert a rien (voir les videos de Linus)<br /> @sph car tu crois que les devs se b***le la nouille, tous les moteurs sont deja optimisés au max<br /> Les RTX, c’est une transition que nVidia essaye de déguiser depuis le debut: ca ne sert a rien tant que le hardware ne permet pas de faire de la global illumination en real-time. Les reflections, on s’en fiche.<br /> Donc cette nouvelle gamme elle me laisse amère car vu les consommation, je me dis vraiment que c’est bouffer du watt pour rien.<br /> Si elles peuvent faire de la GI de A à Z, alors oui ce sera le debut d’une generation superbe. Mais on ne voit rien dans les leaks qui nous laisse dire qu’il y a assez de patate pour cela dans cette nouvelle serie.
bennj
@zekkawa Impossible de voir au dessus de 90 fps mais t’as fumé la moquette ? La différence entre du 90 et du 160 sur mon écran je la vois de suite. Arrête de prendre les vidéos d’un youtubeur pour des faits sans vérifier par toi même.<br /> « 1440p est la meilleur des résolution » Uniquement avec le DLSS d’activé sinon la 4K est forcément au dessus.
marc6310
Mais arrêtez de dire qu’on voit pas au dessus de 60 ou 90 ips sinon allez consulter ! Tu me fais un blind test je te reconnais toutes les fréquences dans l’ordre direct en bougeant une fenêtre, ça se voit comme le nez au milieu de la figure. Et en jouant c’est encore plus flagrant, un coup de souris et c’est torché.
Ginkoh83
C’est clair que sur PC à la souris la différence est flagrante entre le 60, le 90 et le 120 fps.<br /> Par contre à la manette, sur une TV compatible 120hz j’avoue qu’entre le 60 et le 120 c’est plus difficile de faire la différence.
clockover
La 4k native ne sert à rien<br /> Vous avez un ecran 4k pour l’affirmer ? <br />
AtomosF
« Montée en fréquence », 144hz ne vous suffit pas ? Vous voulez du 500 Hertz ? Il va falloir acheter des yeux bioniques…
zekkawa
Je te parles de jeu video, pas de fluidite de ton curseur souris, ca ne change rien de ton experience de gaming au dessus de 90 fps, entre la latence des periph d’entree, le buffering de la simulation du jeu, le pipeline de rendu, il y a un sacré delais.<br /> Si tu fais parti de ceux qui sont sensible a ce point au niveau de la fluidité, tant mieux (ou tant pis) pour toi. Tu dois limite vomir au ciné quand il y a un large travelling.
zekkawa
J’ai plus de 20 ans d’xp sur le development de moteur 3d, oui, j’ai accès a des écrans 4k.<br /> Le rendu 4k natif, c’est histoire de dire « on le fait » mais tout le monde est d’accord pour dire qu’il vaut mieux plus de FPS que du 4k.<br />
Goodbye
Oui, on va pas se mentir, un large traveling trop rapide, c’est laid, sauf si y’a une fréquence de malade, ce qui n’est pas le cas.
zekkawa
Au passage, dans mon post c’est ecrit « possible » et pas « impossible », donc tu vois ptet la difference entre 160 et 400hz, mais pour lire… ^^<br /> Reston cool, ok? C’est un debat d’opinion, j’agresse personne.
Goodbye
Non, en fait c’est une question d’habitude / entrainement de l’oeil, si tu as un écran 165 hz pendant une année, en repassant sur des 120 hz, le même modèle, tu sentiras toute suite la différence et ça ne sera pas agréable.<br /> Pas besoins d’un oeil bionique, c’est un flux continu contrairement aux écrans.
zekkawa
Non, je t’assure, certaines personnes ne verront jamais la difference.
Goodbye
Non, je suis d’accord sur ce point, mais je pense que c’est du 50/50, en fonction de l’âge et de l’habitude des écrans.<br /> Un peu comme les gens qui ne font pas la différence entre deux vins.
clockover
Ba tout le monde n’a pas les mêmes goûts, je préfère du 4k à 60 que du fhd à 180.
zekkawa
ok, entre 4k et 1080p on voit la difference, c’est sur. mais entre 1440p et 4k ? Quand un jeu utilise du TAA, franchement, vous arrivez a voir la difference quand vous etes en train de jouer ?<br /> Le seul game changer c’est DLSS qui donne des resultat de dingue et justement, la résolution de rendering est super faible avant d’etre upscalé avec DLSS.<br /> Tout le monde est passé a coté de ce que je voulais dire (donc je n’ai pas dû le dire correctement) :<br /> Nous avons plus besoin d’une next gen de CGFX qui permet de faire du true real-time global illumination que d’empiler des Stream Manager et Cuda unit pour faire plus de grosses textures et plus de pixel a rendre a l’écrans.<br /> Le jour où on aurant un system de GI qui nous permettra de nous débarrasser des nombreuses techniques de shadow mapping, de contact shadows, d’ambient occlusion et toutes ses conneries qu’on emplie car tout est fake au niveau du lightning, cela va révolutionner le pipeline de production des jeux et nous aurons de belles images.<br /> Unreal a pas mal de longueurs d’avances, mais il faut que cela se democratise.
clockover
Quand ton moniteur est 4k natif. Je préfère le natif au DLSS désolé.
lightness
pas vraiment si c’est vrai la 4070 est déjà dors et déjà dépassé, il faut quand même garder à l’esprit que même si mal optimisé deus ex mankind divided et ff15 dépassé allègrement les 10 go de mémoire en 1080p avec toutes les options graphiques poussé à fond. et par ailleurs un problème encore récurrent même si vous avez 10 go de ram vidéo une partie sera quand même partagé avec la ram.
_Troll
Un jeu qui se respecte devrait etre d’un minimum de 4k 360 Hz.
lightness
oui le dlss réduisant la taille d’affichage et l’upscalant par la suite via « l’apprentissage profond » pour économiser des ressources (ce qui montre qu’ils ont du mal a tenir la cadence chez les verts et surtout qu’ils veulent transféré les perfs des quadro sur des GeForce pour des raisons de coût. si on donne une quadro à un joueur il changera moins souvent de carte graphique et c’est donc un manque à gagner.
lightness
unreal engine 6 voxel ray tracing why not.
_Troll
Un terme a la mode utilise pour faire de bon titre put a click par les redacteurs de site internet, et aussi un terme utilise par les fabricants pour ameliorer leur impact publicitaire.
baal-fr
SPH:<br /> Je veux dire que si le parc d’ordi est en 3080, peu d’éditeurs de jeux vidéo n’oseront sortir un CyberPunk 8K. A la limite, ça aura pour vertu d’optimiser les moteurs graphiques.<br /> Qui s’en fout ? On est plus en 2002 les gars. T’as des tas de façons bien plus intelligentes d’utiliser la puissance que faire de la 8k osef. Surtout pour des jeux pas finis ou meh. Je ne parle pas spécifiquement de Cyberpunk mais cette course à l’échalote d’avoir le jeu le plus beau avec toujours le même jeu derrière.
SPH
Je disais « 8K » comme exemple. J’aurais pu parler de futur jeux AAA (d’ailleurs, j’en parle tiens). Si 1% du parc a par exemple plus de 8Go de mémoire graphique, les éditeurs de jeux vidéo se retiendront de dépasser cette limite.<br /> Bref, ça poussera à l’optimisation…
fox-idcom
pour ma part , je dois avouer que pour avoir tester 4k@60hz et 1440p@165Hz , ma préférence va largement (et de loin) au 1440p@165hz (sur un 27").<br /> on garde une finesse tout à fait acceptable en 1440p et le fait d’avoir bcp de hZ c’est quand même un sacré confort.<br /> après au delà de 165 HZ je suis bcp plus dubitatif (hormis peut être pour l’E-sport)
bafue
1440P a 165hz c’est très bien ,4k a 144hz ta carte ne demande qu’a prendre feu !!
bennj
Et pourtant si tu prends du « 4K DLSS Qualité » le rendu est supérieur à du natif
Urleur
ok… reste à confirmer de la part de Nvidia, si c’est oui, sa change la donne concernant les 070, si ce n’est qu’il seras beaucoup plus intéressant de prendre une 3070, tout va se jouer au prix.
clockover
De votre point de vue peut-être et je n’ai aucun soucis avec ça.
Voir tous les messages sur le forum

Lectures liées

Nouveau Matebook D16 : Huawei offre un rafraîchissement bienvenu à son ultraportable
Les Radeon 7000 RDNA3 pourraient avoir des unités similaires aux Tensor Cores de NVIDIA
Les monstrueux Threadripper Pro 5000WX débarquent pour la modique somme de 7 000 dollars
Huawei annonce son Matebook 16S avec du i7 et du i9, prêt à chasser sur les terres du Macbook Pro ?
NZXT lance deux boîtiers de capture/streaming
Pourquoi le nouveau MacBook Air mérite plus votre attention que le MacBook Pro M2
Cette superbe webcam Logitech est à prix cassé pour les soldes Cdiscount !
Sans surprise, la GeForce GTX 1630 se révèle moins rapide que la Radeon RX 6400
Intel Arc Alchemist : des cartes graphiques professionnelles en fuite ?
Apple bosse (évidemment) sur un M2 Pro, Max, Ultra et Extreme, mais pour quelles machines ?
Haut de page