AMD confirme la date de son événement de révélation des cartes graphiques RDNA 3

Nerces
Spécialiste Hardware et Gaming
21 octobre 2022 à 00h05
27
© AMD
© AMD

Une nouvelle génération de Radeon RX débarque, histoire de ne pas laisser NVIDIA et Ada Lovelace seules en lice.

La chose était pour ainsi dire entendue, mais AMD préfère en publier la confirmation de la manière la plus officielle qui soit.

Focus sur le jeu vidéo

Souvenez-vous, au cours du mois d'août, AMD avait confirmé la tenue d'un événement « extraordinaire » organisé pour officialiser sa nouvelle génération de processeurs desktop, les fameux Ryzen 7000.

La société américaine récidive aujourd'hui avec la confirmation de ce qui n'était plus qu'un secret de polichinelle : AMD tiendra donc un événement au début du mois de novembre afin de présenter ses plans en matière de carte graphique… et de jeu vidéo.

En août, l'événement était baptisé « together we advance_PCs », ce que l'on peut traduire par « ensemble, nous faisons progresser les PC ». Il est aujourd'hui question de « together we advance_gaming », pour « ensemble, nous faisons progresser le jeu vidéo ».

Performances et efficacité énergétique

Il est intéressant de constater qu'AMD place clairement cet événement sous le signe du jeu vidéo, faisant donc abstraction du côté professionnel que peut revêtir une carte graphique.

Pour AMD, il sera logiquement question de mettre en avant ses nouveaux GPU, lesquels exploiteront l'architecture RDNA 3. Sans trop en dire bien sûr, la marque insiste malgré tout sur « les hautes performances » et « l'efficacité énergétique » de ses solutions qui entreront évidemment en concurrence directe avec les GeForce RTX 4000 de NVIDIA.

AMD explique que le show débutera le 3 novembre à 13 h (heure de Las Vegas). Vous n'aurez donc pas à veiller très tard : rendez-vous est pris le 3 novembre à 21 h (heure de Paris), et Clubic couvrira l'événement.

Petite précision pour finir, les dernières rumeurs en date annoncent la sortie des premières cartes graphiques RDNA 3 pour la deuxième ou, plus vraisemblablement, la troisième semaine de novembre. On trouvera en tête de liste la série RX 7900 : du haut de gamme comme a pu le faire NVIDIA.

Source : VideoCardz

Vous êtes un utilisateur de Google Actualités ou de WhatsApp ? Suivez-nous pour ne rien rater de l'actu tech !
google-news

A découvrir en vidéo

Haut de page

Sur le même sujet

Rejoignez la communauté Clubic S'inscrire

Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.

S'inscrire

Commentaires (27)

DrCarter95
Je sais pas pourquoi mais je sens qu’elles vont pas être terribles ces cartes par rapport aux 4000 de Nvidia.<br /> J’espère me tromper grandement.
pecore
Tout dépend de ce que tu recherches et de ce que tu définis comme pas terrible, je suppose. Si tu recherches la puissance brute, en effet, elles ne devraient pas être « terribles », Nvidia s’étant accaparé ce créneau avec toute sa puissance de feu, AMD n’a ni intérêt, ni envie je pense, de lutter sur ce segment.<br /> Si tu recherches le rapport qualité/prix ou le rapport prix/watts et avoir simplement du bon matériel efficace à un prix (un peu) sensé, alors AMD a une très bonne carte à jouer, maintenant qu’Intel s’est royalement planté, pour cette génération en tous cas.<br /> Mais AMD a intérêt à ne pas se tromper de public et à ne pas chercher à faire du Nvidia, y compris niveau prix, car ce qui peut être malheureusement pardonné au leader ne le sera surement pas au challenger. AMD joue donc assez gros sur ce coup.
Mayonnez
Pensez-vous vraiment que les prix seront raisonnables ?<br /> Moi, pas, et justement en partie à cause d’Intel.<br /> Les cartes NVidia sont tellement chères qu’il reste de la marge (bénéficiaire, bien sûr) à AMD pour nous pondre des prix tout aussi inabordables pour le commun des mortels comme moi.<br /> L’avenir va manquer de FPS pour les moins fortunés pour qui le jeu vidéo est juste une passion.<br /> M. D.
dredd
Perso, si elle sont moins puissantes que la concurrence (je parle d’nVidia, désolé Intel) mais que tout le reste est meilleur, à savoir consommation, encombrement et prix, alors elles auront forcément ma préférence. Et j’imagine aussi celle de plein d’autres joueurs.
Delta243
J’ai hâte de voir ce que Amd va proposer.<br /> Surtout le rapport perf /prix.<br /> Il ne faut pas sous estimer Amd.<br /> Les Rx 6000 sont des cartes équivalentes en jeu aux rtx 3000 sauf pour le Ray tracing et streaming.
iroteph
Les ventes de zen 4 sont une catastrophe, sans parler des cartes mère, donc si amd décide d’une grille tarifaire hors norme alors qu’il ne faut plus compter sur les mineurs pour écouler les stocks, les gamers étant leurs principaux clients aujourd’hui, financièrement ce ne sera pas supportable si les ventes de cg suivent le même chemin que celui des cpu, il ne faut pas oublier que tout coûte cher aujourd’hui et qu’il y a d’autres priorités…
tommythefreak
Je suis aussi curieux, parce que quand on regarde les prix pratiqués par AMD pour les RX 6000 mais aussi côté CPU (Zen 4), on ne peut clairement pas dire qu’ils éclatent la concurrence en rapport perf/prix comparé à ce qu’ils ont pu faire par le passé.<br /> Au final, c’est au consommateur de décider si la différence de prix justifie de se passer de l’ecosystème NVIDIA. Pour ces 2 dernières années, vu les chiffres de vente, la réponse est non.
_Reg24
Curieux de voir tout ça <br /> Si ils proposent une 7900XT avec des perf pas trop loin de la 4090 pour un prix bien plus abordable, ça pourrait être intéressant!
SETHalpine
Pour l’instant AMD a un boulevard d’ouvert… Perso je n’ai vu aucune carte nvidia qui correspond à mes besoins…<br /> Pas de 4060, pas de 4070…<br /> Non seulement il y a pas de disponibilité, mais même si il y en avait, les prix seraient aberrants…<br /> Pour des cartes toujours incapables de gérer la VR sur flight simulator 2020…<br /> Il y en a peut-être qui se touchent la nouille avec la 4090…<br /> Mais franchement le progrès attendu sur cette génération, sur le cœur de gamme et non pas sur des hauts de gamme à gros coup de consommation de Watt, ce progrès est loin d’être évident…<br /> Pour nous fourguer de l’interpolation à 2000 €, ils savent faire…<br /> Ah peut-être qu’ils voudront que je leur interpole mes euros…
Than
De la perf’ « ok », un rapport à la consommation d’énergie pas ignoré voire optimisé, un prix qui se moque pas du monde, et on leur pardonnera sans problème de ne pas être les premiers en puissance brute.<br /> Si ça évite d’avoir à installer une centrale nucléaire dans notre tour, je m’en fous un peu beaucoup de pas avoir la carte la plus puissante du marché (qui par définition est toujours hors de prix du commun des mortels).
iroteph
Si la sortie des modèles équivalents aux 6700xt/6800 intervient à partir de février/mars 2023 pour écouler les stocks de rx6000, la situation ne va pas s’àméliorer, parceque je doute que l’intention x’amd soit de sortir autre chose que les 7950/7900xt/7800xt de 700 à 1500€ à vu de nez … L’avenir nous le dira…
Popoulo
SETHalpine:<br /> Pas de 4060, pas de 4070…<br /> Attends qu’elles soient dispo non ? Tu pourras alors te faire une idée <br /> SETHalpine:<br /> Pour des cartes toujours incapables de gérer la VR sur flight simulator 2020…<br /> La VR manque cruellement d’optimisation. FS n’en parlons pas. A partir de là, faut pas t’attendre à des miracles. T’as beau avoir une ferrari, si tu vas faire du off-road avec, je doute que t’ailles très loin.
pecore
tommythefreak:<br /> Pour ces 2 dernières années, vu les chiffres de vente, la réponse est non.<br /> Je suppose que tu te bases sur le pourcentage de parts de marché pour dire cela et c’est vrai que c’est que qu’on pourrait croire. Et pourtant, les cartes AMD aussi se sont retrouvées en rupture, signe que la demande était supérieure à l’offre. Donc elles se sont très bien vendues aussi finalement.
tommythefreak
En effet la lecture des chiffres de vente est compliquée à cause de la situation, mais je préfère me référer aux parts de marché qu’au critère rupture de stock.<br /> On est tout de même dans un rapport 1:4 en parts de marché.<br /> Dans quelle mesure cette rupture est-elle volontaire ou non? Pour ma part, il me semble assez évident qu’il y a eu manipulation pour garder des prix hauts, des 2 côtés.<br /> C’est pour cela qu’en tant que consommateur, je refuserai toujours d’acheter des produits au delà du prix catalogue ou à prix catalogue artificiellement gonflé (coucou 3090). Et alors ne parlons même pas des enseignes revendeurs qui en rajoutent une couche pour gonfler leur marge (coucou ldlc).
Lepered
Perso, payer 2000 € pour une carte « haut de gamme » est hors de question et pourtant je pourrai largement me le permettre. Ma 1080TI me permet de jouer à fond (hors ray tracing bien sur) sur tous les jeux en moniteur ultra large 1440P.<br /> Au vie des vidéos sur le ray tracing, je ne vois rien d’extraordinaire, au point de dire que un jeu sans un hideux. Loin de là. Donc ma prochaine carte sera une évolution de la 1080TI, disons + 40% au meilleur prix… Donc à priori pas Nvidia.
tommythefreak
C’est marrant parce qu’il se trouve que la carte la plus puissante et la plus chère du marché est également celle qui offre la meilleure efficacité énergétique, avec un rapport perf/watt au moins 40% supérieur au reste du marché.
Than
Si c’est pour lâcher plusieurs mois de salaire dedans, ce n’est pas faisable/acceptable/raisonnable/souhaitable.<br /> Surtout si on n’en a pas l’usage. <br /> Selon toi quelle est l’actuelle carte graphique la plus puissante et la plus économe en énergie par rapport à sa puissance délivrée ?
Than
Les parts de marché sans les valeurs absolues ne veulent rien dire parfois.<br /> Si en nombre d’unités il s’en est vendu davantage même si ça recule/stagne en parts de marchés, c’est que ça marche quand même.
tommythefreak
C’est à chacun de définir ce qui est acceptable et abordable. Cela reste un marché de niche, mais il y a des passionnés de simu en tous genres qui veulent jouer en triple screen 4k ou en VR sans compromis. Ou plus couramment ceux qui veulent jouer en 4k raytracing 120fps avec tout en ultra.<br /> Donc oui, la 4090, qui est (pas selon moi mais selon les tests) la plus puissante et la plus efficace (perf/watt) est chère, mais elle n’est proportionnellement pas plus scandaleuse que les autres cartes haut de gamme.
StephaneGotcha
On a deja des bench ?
pecore
Pour te citer, la lecture des chiffres est compliquée. En effet, si l’on fait un rapport de frame par watts, la RTX 4090 est très bonne. Mais si l’on regarde la valeur absolue, ben elle a toujours un TDP de 450 watts, ce qui reste beaucoup, 100 watts de plus que la RTX 3090. Efficace ou pas, ca fait beaucoup de jus et beaucoup de chaleur à dissiper, suffisamment pour chauffer une pièce de 9 m2 selon certains testeurs.<br /> J’ajoute que si elle est aussi efficace, c’est qu’elle devait être prévue en 600 watts à la base mais que les études de marché de Nvidia ont dû montrer que cela risquait d’être un repoussoir pour les clients (bien vu) pour des gains assez faibles. Donc elle a été castrées à 450 watts, ce qui lui donne son efficacité en frame par watts.
tommythefreak
Complètement d’accord avec la conso dans l’absolu, je trouve aussi que ça va trop loin, pourtant j’ai des panneaux photovoltaiques qui, annuellement, produisent plus que ma conso. Mais de nouveau, si l’on a les moyens de se payer un gpu à 2000€, les 100W supplémentaires par rapport au gain de perfs sont dérisoires. Il y a quelques années, la mode du SLI + overclock avait également fait bondir la conso.<br /> Sinon pour l’histoire des 600W c’est surtout parce qu’ils avaient prévu de se fournir chez Samsung avec un process de gravure moins fin :<br /> ExtremeTech – 7 Oct 22<br /> Report: RTX 4090 Originally Designed as 600W GPU With Samsung Silicon -...<br /> Nvidia allegedly sent out thermal plans for the RTX 40-series GPUs before choosing a foundry, causing wildly over-engineered coolers for RTX 4090 GPUs from Nvidia's partners.<br />
higtek
bonsoir a tous<br /> je pense qu on aura l EQUIVALENT CHEZ AMD,sauf en raytracing legerement en retrait,<br /> mais moins chere.tout va etre plus rapide avec les cartes rx 7000!certains leaker prevoient des frequences de 3ghz,voire plus.amd c est l avenir avec le multichip et le display port 2.1
sylvio50
Avec 12000 coeurs, je serais vraiment étonné qu’elle atteigne 3 Ghz. Plutôt 2 Ghz je pense. Elle sera une concurrente directe de la RTX 4080 16 Go.
pecore
Je le pense aussi. Mais franchement, vivement le 3, parce là, la situation est grave et qu’il faut qu’on sache enfin si l’on va être laissés en pâture à Nvidia et à ses prix toujours plus scandaleux ou si AMD va être en mesure de jouer son rôle de contrepouvoir et de nous sauver d’une obligation de choisir entre jouer et manger.<br /> Comme beaucoup, je me fiche que les perfs ne soient pas au top, j’espère juste que les prix ne dépasserons pas les 999$ pour la plus chère. Avec tout de même un rapport perf/prix correct.<br /> J’avoue avoir rarement eut autant d’impatience mais aussi d’appréhension avant une présentation de matériel informatique.
sylvio50
Perso, je penserais bien à ce genre de caractéristiques :<br /> 5 nm | 750 (2x375 mm² utile, 2x410 mm² brut | 12288 SP | 450 W | 2,1 GHz | x 2,25 à 3DMark GPU score | + 50 % de perf/W | 1199 € en France<br /> 3 Ghz avec 12288 processeurs, à mon avis, ça fait beaucoup. Le TDP exploserait en 5 nm.
sylvio50
Ou en version « ECO » avec GPU à 1,75 Ghz @ 300 W par exemple. L’efficacité serait potentiellement +80% meilleur et les perfs 80% meilleur qu’avec la RX6900XT.<br /> Ou en version Mobile sur les PC portable Ultra haut de gamme à 1 Ghz @ 100 W pour des perfs similaire à la RX 6900 XT de bureau et une efficacité énergétique 220% meilleur.<br /> Cela dit, nous verront bien.<br /> Nota : J’ai oublié que ce GPU sera probablement séparé en partie : 1 GCD (partie calcul) et 6 MCD (partie mémoire) pour la RX 7900 XT probablement. Si chaque MCD fait 40 mm², ça ferait 6 x 40 = 240 mm² pour la gestion mémoire. Reste à voir la taille du GCD et savoir si il sera coupé en plusieurs partie. Ca pourrait abaisser les coûts encore.<br /> Dans tous les cas, ces nouveaux GPU seront intéressants à analyser.
Voir tous les messages sur le forum