AMD : les caractéristiques des Radeon RX 6000 fuitent, une semaine avant leur présentation

Nerces
Spécialiste Hardware et Gaming
27 novembre 2020 à 11h46
41
AMD Radeon RX6000 © AMD

Fuites et autres bruits de couloir n'attendent jamais les annonces officielles. AMD et les cartes graphiques RX 6000 viennent d'en faire les frais.

Dans un tout petit peu plus d'une semaine, Lisa Su et tout le staff d'AMD vont remettre le couvert : après avoir organisé une conférence autour des CPU Zen 3, ils mettront cette fois en avant l'architecture graphique RDNA2 qui doit animer les futures Radeon RX 6000… dont les caractéristiques techniques viennent de fuiter.

© AMD
© AMD

RX 6900 et RX 6800 pour commencer

C'est ainsi que Videocardz.com a publié la description détaillée de plusieurs des cartes de la gamme tandis que d'autres sont encore assez mystérieuses.

Également connue sous le nom de Big Navi, la Radeon RX 6900 XT est équipée du GPU Navi 21 XTX. Fer-de-lance de la nouvelle gamme, elle intégrera 80 unités de calcul et 5 120 processeurs de flux. Il est question d'un GPU tournant à 2 040 MHz (boost à 2 330 MHz) épaulé par 16 Go de mémoire GDDR6 interfacés en 256-bit.

On descend un petit peu en gamme avec la Radeon RX 6800 XT basée sur le GPU Navi 21 XT. Celui-ci dispose de 72 unités de calcul et de 4 608 processeurs de flux. La fréquence de fonctionnement du GPU est de 2 015 MHz / 2 250 MHz selon que le boost soit activé ou non. AMD intègre encore 16 Go de mémoire GDDR6 interfacés en 256-bit.

Enfin, la Radeon RX 6800 est conçue autour d'un GPU Navi 21XL qui baisse encore d'un cran avec 64 unités de calcul et 4 096 processeurs de flux. Les fréquences sont aussi en baisse : 1 850 MHz de base et 2 150 MHz en boost. Rien ne change en revanche côté mémoire : 16 Go de mémoire GDDR6, interfacés en 256-bit.

© Videocardz.com
© Videocardz.com

Qu'il s'agisse de la Radeon TX 6900 XT, de la 6800 XT ou de la Radeon 6800, les trois modèles seront dévoilés le 28 octobre prochain avec, on l'espère, une disponibilité - réelle ? - dans la foulée.

Videocardz.com évoque enfin des modèles davantage « milieu de gamme », les Radeon 6700 XT et Radeon 6700. Ces derniers seront basés sur le GPU Navi 22 avec 40 unités de calcul et 2 560 processeurs de flux pour la version la plus musclée. Deux cartes qui ne devraient de toute façon pas débarquer avant le début de l'année prochaine.

Source : Videocardz

Nerces

Spécialiste Hardware et Gaming

Spécialiste Hardware et Gaming

Tombé dans le jeu vidéo à une époque où il fallait une belle imagination pour voir ici un match de foot, là un combat de tanks dans ces quelques barres représentées à l'écran, j'ai suivi toutes les év...

Lire d'autres articles

Tombé dans le jeu vidéo à une époque où il fallait une belle imagination pour voir ici un match de foot, là un combat de tanks dans ces quelques barres représentées à l'écran, j'ai suivi toutes les évolutions depuis quarante ans. Fidèle du PC, mais adepte de tous les genres, je n'ai du mal qu'avec les JRPG. Sinon, de la stratégie tour par tour la plus aride au FPS le plus spectaculaire en passant par les simulations sportives ou les jeux musicaux, je me fais à tout... avec une préférence pour la gestion et les jeux combinant plusieurs styles. Mon panthéon du jeu vidéo se composerait de trois séries : Elite, Civilization et Max Payne.

Lire d'autres articles
Vous êtes un utilisateur de Google Actualités ou de WhatsApp ? Suivez-nous pour ne rien rater de l'actu tech !
google-news

A découvrir en vidéo

Rejoignez la communauté Clubic S'inscrire

Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.

S'inscrire

Commentaires (41)

GRITI
… Quand je pense à la taille des premières cartes graphiques. En comparaison, ce qu’elle a dans la main paraît monstrueux <br />
angenoir
la 6800 xt et la 6900xt sont vraiment tres proche et ne devraient pas avoir plus de 5-7% d’ecart … a voir si le prix est tres inferieur
genesya
j’aurai plutot dit ~10/12% avec 8CU de plus et une fréquence plus haute
mrassol
That’s what she said …
drno95
CMB XD<br /> Il faut avouer que la puissance a augmenté grandement.
GRITI
drno95:<br /> Il faut avouer que la puissance a augmenté grandement.<br /> Heureusement étant donnée la taille des CG maintenant .<br /> C’est juste que quand je vois mes anciennes CG dans mes cartons, en comparaison des nouvelles…
dante0891
Si le prix est correct, elles ont l’air d’être une bonne alternative par rapport à celle de Nvidia.
LedragonNantais
la question que je me pose c’est pourquoi avoir choisi un bus mémoire à seulement 256bits et pas plus comme Nvidia? C’est un truc qui a vachement diminué aux fils des années ça. Je me rappel à l’époque de ma GTX 285 (à la préhistoire), les bus étaient en 512bits, et ont est descendu petit à petit sur 384 et 256.
GRITI
Karl_TH:<br /> Heu, on se moque pas de la Voodoo Banshee…Donc un peu de respect <br /> Je ne me moque pas du tout! J’ai pris cette carte car je sais qu’elle a marqué beaucoup de joueurs et habite encore le petit cœur de gamers de la première heure <br /> Et puis, rien que son nom est une tuerie !!!
kast_or
Ces chiffres ne me parlent pas du tout. Si on faisait un parallèle avec les rtx 3000 on se positionnerait où à vue de nez (même si bien sûr on a pas toutes les caractéristiques)
dredd
C’était de l’entrée de gamme la Banshee. La voodoo 2 etait déjà bien plus grosse sans partie 2D. Maintenant faut bien se rendre compte que ça n’a plus rien a voir entre des accélérateurs graphiques et des GPU actuels extrêmement complexes et surtout qu’il faut massivement refroidir sous peine de foutre le feu a la baraque. Mais si on prend par exemple certaines 1660 super avec un seul ventilo et mois de 17cm de long, on peut pas s’empêcher d’être admiratif quand même.
Mike-de-Klubaik
Certaines sources signalent une enveloppe thermique fixée à 320 W… Ouch… j’ai peur, vraiment…
Pernel
Certainement au niveau de la 3080 pour la 6900XT, peut être un peu devant.<br /> La différence se fera au prix mais surtout a la disponibilité. Pour qui veut jouer a CP2070 /ACV etc. en fin d’année, il prendra ce qu’il trouvera, si AMD gère le truc, ils ont moyen de faire la différence par rapport au foutage de tronche que fait NVidia.
MadForL_fe
Intéressé par la proposition d’AMD, surtout si les perfs sont comparables.<br /> Je regrette juste qu’AMD n’ait pas son DLSS perso qui fait quand même gagner un paquet de FPS dans les jeux.<br /> Donc à perfs techniques équivalentes, Nvidia serait toujours devant avec le DLSS.
Mike-de-Klubaik
Plus le bus mémoire est large, plus tu dois avoir de connexions qui relient la RAM au GPU, et donc cela complexifie encore plus le GPU, le risque de gravures ratées, et donc le coût. Aujourd’hui la montée en fréquence de la mémoire a compensé la largeur de bus, à tel point que ce n’est plus la mémoire vidéo qui est le goulot d’étranglement. Donc rajouter une plus grande largeur de bus n’apporterait pas d’augmentation significative de performances, c’est donc relativement inutile de dépasser les 256 bits par rapport au surcoût.
jaceneliot
Pour les plus connaisseurs, on se situe à peu près où par rapport aux RTX 3000, en première estimation ?<br /> Sinon, je pense que l’idée de doter toutes les cartes de 16GB est assez malin et futur proof. Nvidia s’est un peu raté (à moins d’avoir bien calculé leur coût avec des refresh qui arrivent vite).
jaceneliot
DLSS c’est disponible sur tous les jeux ou une poignée comme RTX ? Si c’est la première option totalement d’accord avec toi, sinon, bof bof bof. Si ça concerne que quelques AAA.
k43l
Impossible de savoir vu qu’en plus, il y a une nouvelle architecture.<br /> Seul truc qu’on peut dire c’est par rapport à la 5700XT qui était entre une 2600 et 2700 de nvidia, il y a le double de compute units (40) sur la plus haute gamme.<br /> Donc logiquement elles seront entre une 3800 et 3700 pour les 3 premières références.
pecore
@GRITI et @Karl_TH J’ai eu plusieurs cartes Voodoo dont la Banshee et je n’ai pas pris cela comme une pique mais comme un hommage au contraire. Aaaah, le Glide, c’était quelque chose. Souvenir souvenir…<br /> Sinon, effectivement, un petit gout de pas assez dans cet article. Il aurait été bon pour ne pas dire essentiel, de comparer les specs avec celles de la nouvelle référence auto-proclamée, la RTX 3080. Tout en précisant bien sur que l’architecture faisait beaucoup aussi et qu’il ne faillait donc pas trop s’emballer mais au moins cela aurait donné un début de point de comparaison. Travail bâclé donc ou alors manque d’audace journalistique.
jaceneliot
L’autre indice c’est les résultats en FPS qu’ils ont donné. C’est maigre et ça peut être biaisé, mais ça laissait entrevoir quelque chose de très proche d’une 3080.
MadForL_fe
Pour l’instant que sur quelques jeux mais j’imagine que leur but est de rendre ça dispo sur un maximum de jeux à terme. Et vu comme Nvidia a souvent réussi à imposer ses technos propriétaires (les HairWorks et co), ils ne devraient pas avoir de mal à le faire sur le DLSS.
duck69
avec de la GDDR6 c’est un cauchemars en terme de câblage , de pcb etc… , les cout de production en pâtisse et la carte deviens cher. je pense que c’est pour avoir le meilleur ratio prix/perf , la 5700XT est égal à une vega 2 qui pourtant dispose d’un bus mémoire bien supérieur. la nouvelle architecture est plus efficace , même avec un bus standard.
Yorgmald
Le prix ET les perfs, cela ne sert à rien qu’elles soient peu chère si peu performantes…
Yorgmald
Bâclé non, car comme vous le dites : on ne sait pas ce que vaut l’archi utilisée. A quoi bon faire un tableau comparatif avec des infos qui ne montrent rien et ne peuvent rien prouver?<br /> Surtout que je suis persuadé que si le tableau avait été fait vous auriez encore trouvé à redire car rien de concret sur la qualité de l’archi… et donc tableau inutile.
Pernel
La 5700XT c’est au niveau de la 2070 Super, pas entre la 2060 et la 2070
eykxas
AMD intègre des optimisations dans RDNA 2 qui permet (en théorie) d’avoir des performances aussi intéressante qu’avec un bus plus grand. (je sais plus comment ça s’appelle, infinity cache ou un truc comme ça.).<br /> Les bus sont plus petit qu’avant car c’est beaucoup moins cher et moins complexe à gérer. La fréquence des mémoires sans cesse en hausse compense le besoin d’avoir des bus complexe. Et les controller étant plus petits, ça laisse plus de place pour les unités de calculs sur le die.
pecore
Yorgmald:<br /> …si le tableau avait été fait vous auriez encore trouvé à redire car rien de concret sur la qualité de l’archi… et donc tableau inutile.<br /> On ne le saura jamais n’est ce pas. Je vous invite néanmoins à constater que je ne suis pas le seul à trouver que l’article manque de points de comparaison et cela n’aurait engagé à rien de comparer des spécifications techniques sans s’avancer sur leur portée pratique. Je maintiens donc ma remarque et je signe.
Popoulo
Très peu de différence entre une 2060S et une 5700XT sous G3D Mark. 16’300 pts pour la première, 16’600 pour la seconde. La 2070S dépasse les 18’000 pts.<br /> Le prix joue cependant en faveur de la 5700XT y a pas photo si on parle de rapport perf/prix.
Mike-de-Klubaik
Tableau inutile… oui et non. C’est quand même à la presse spécialisée de gratter la couche marketing pour révéler «&nbsp;le vrai du faux&nbsp;». Autant Compute Unit est quelque chose de représentatif dans le domaine micro-architectural, autant «&nbsp;Tensor Core&nbsp;» et «&nbsp;RT Core&nbsp;» c’est le bullsh… enfin le marketing Nvidia. Il est là le travaille critique.<br /> Cela dit, depuis la disparition des sites français très spécialisés dans le hardware, les gens compétents dans le domaine (en France du moins) manquent à l’appel…
Pernel
Non mais les bench ça ne représente pas la réalité. Regardes tous les tests, c’est du calibre de la 2070S
Bibifokencalecon
Ahah les Voodoo De bons souvenirs avec l’ère des Matrox (Mystique et Millenium).<br /> Par ailleurs, je pense qu’il y aurait un marché potentiellement exploitable pour le retour de cartes graphiques «&nbsp;d’accélération&nbsp;» dédiées pour VR ou la 4K, en soutien d’une carte graphique principale de milieu de gamme. Le coût global serait amorti et moins élevé qu’une carte «&nbsp;très haut de gamme&nbsp;» ou deux cartes identiques (SLI/Crossfire).<br /> Mais j’imagine que cela apporte aussi bien des contraintes en développement logiciel pour correctement exploiter ce potentiel, surtout quand on voit justement le peu de succès des CrossFire ou SLI (certes plus contraignantes pour la compatibililité).<br /> Pour cela, il faudrait un nouveau joueur prêt à remettre en cause Nvidia et AMD.
Bibifokencalecon
Comme je n’achète jamais les GPU dernières générations, je suis content de ses futures cartes (autant AMD que Nivdia). Cela fera toujours baisser le prix de la génération actuelle qui me suffira amplement pour mes besoins, et toujours dans l’optique de ne pas dépenser plus de 350$.<br /> J’ai fait cela avec la HD 6870 (2 Gb), la HD 7970 OC (3Gb), puis la RX 580 OC (8Gb), et je changerai probablement pour la RX 5700 XT ou RTX 2070 Super dépendamment des prix.
carinae
Ho oui les 3Dfx, matrox and co. La belle époque . Les voodoo 3 étaient plus longues il me semble. Déjà avec 2 ventilos a l’époque c’était le top. Aujourd’hui les CG sont carrément des mini pc. Elles sont devenues énormes avec un système de refroidissement a l’avenant …et une consommation électrique hallucinante. Bientôt il faudra une centrale nucléaire pour faire fonctionner son pc .
Mike-de-Klubaik
Marrant j’ai à peu près le même parcours. Mais je privilégie AMD, venant du monde libre.
Mecano
Il faut bien voir que les cartes graphiques actuelles font aussi chauffage. C’est quand même un sacré plus en hiver :o
AlmostHeroic
@Pernel<br /> Le soucis va surement venir du raytracing, cela s’annonce en dessous de Nvidia. Acheter une nouvelle carte graphique a ±800$ et pas de raytracing sur Cyberpunk 2077 ca craint.
pecore
Je ne vois pas ce qui te fais dire que le Ray Tracing va être en dessous de Nvidia. Ce sera peut être le cas mais là tout de suite rien ne permet de l’affirmer il me semble. Et je doute BEAUCOUP que les cartes AMD coutent 800€ ou plus.
Pernel
En dessous ? Il n’y a pas de tests a se sujet …<br /> Si CP2077 n’a pas de RT non proprio c’est pas la faute d’AMD mais de l’accort NV et CDPR.
AlmostHeroic
Il y a déjà des analyses online de l’architecture AMD. Biensur ce ne sont que des speculations.<br /> Vu la stratégie de prix sur les processeurs Ryzen, l’equivalent de la RTX 3080 va surement être une poignée de $ moins chere je dirais 50$. AMD va surement proposer un peu plus de ram pour se différentier. Peut être la diffence peut se jouer sur une carte haut de gamme 200 ou 300 $ moins chere que la RTX 3090.
Garden_Dwarf
Bravo, 16Go quasi partout et minimum 12Go, Nvidia devrait en prendre de la graine plutôt que de faire les radins sur la mémoire pour pouvoir nous faire re-passer à la caisse dans 3 ans !
Voir tous les messages sur le forum
Haut de page

Sur le même sujet