Radeon RX 6000 : AMD tient sa réponse aux RTX pour la 4K, mais reste discrète sur le Ray tracing

Nathan Le Gohlisse
Spécialiste Hardware
27 novembre 2020 à 11h47
76
© AMD
© AMD

AMD tenait à 17h sa conférence Radeon, l'occasion pour la marque de présenter non pas deux, mais trois nouvelles cartes graphiques suffisamment capables en 1440p et 4K pour faire ombrage à une RTX 3080 encore difficile à trouver.

C'est une conférence express que nous a proposé AMD aujourd'hui. En 30 minutes à peine, la firme a présenté trois nouvelles cartes graphiques suffisamment performantes pour concurrencer les GeForce RTX 3000 de NVIDIA, introduites début septembre. Si la marque insiste sur les performances de ce nouveau triptyque GPU en 4K et 1440p, face aux cartes de son rival (et notamment face à la RTX 3080), elle reste toutefois discrète sur la question du Ray tracing.

Véritable cheval de bataille technologique de NVIDIA depuis deux ans, le support matériel du Ray tracing est bien d'actualité sur les nouvelles Radeon RX 6000, mais ne semble pas - du moins à première vue - être leur point fort. AMD a d'ailleurs communiqué quant à sa technologie Fidelity FX, qui permet un rendu hybride mêlant rastérisation (traitement traditionnel) et Ray tracing, pour ne pas trop impacter les performances.

© AMD
© AMD

Heureusement, la firme de Lisa Su devrait pouvoir se rattraper sur au moins deux points : le placement tarifaire et la maîtrise énergétique. Cette dernière est promise 50 % supérieure à celle des Radeon RX 5700 et 5700 XT lancées l'année dernière, et devrait aussi être meilleure que ce que propose actuellement NVIDIA en termes de TGP, assure AMD.

Radeon RX 6800 & 6800XT : les RTX 3070 et 3080 sérieusement attaqués par AMD

Sans plus tarder, commençons par la carte la plus abordable présentée ce soir par la marque. Disponible dès le 18 novembre à partir de 579 dollars, la Radeon RX 6800 prendra la suite de la RX 5700 avec 60 unités de calcul, 128 Mo de cache et 16 Go de GDDR6. Ses fréquences sont comprises entre 1 815 et 2 105 MHz pour un TGP annoncé à 250 W.

Cette nouvelle carte arrive devant la RTX 2080 Ti sur l'ensemble des jeux testés par AMD (BFV, The Division 2, Gears 5, Shadow of The Tomb Raider) en 1440p comme en 4K. Nous devrions donc retrouver un niveau de performances brutes légèrement supérieur à ce que propose la RTX 3070 commercialisée depuis peu. Il faudra néanmoins mettre dans la balance la capacité de cette RX 6800 à gérer le Ray tracing, et il est probable que la RTX 3070 soit plus à l'aise sur ce point.

Radeon RX 6000-2 © © AMD
Radeon RX 6000-3 © © AMD
© AMD
© AMD

Plus performante, la Radeon RX 6800XT embarque quant à elle 72 unités de calcul cadencées entre 2 015 et 2 250 MHz pour un TGP annoncé à 300 W (contre 320 W pour la RTX 3080). On retrouve pour le reste 128 Mo de cache et 16 Go de GDDR6 (contre 10 Go de GDDR6X, plus rapide, sur la RTX 3080).

AMD compare cette fois directement les performances de sa carte à celle de la RTX 3080, pour une prestation supérieure ou égale en 4K comme en 1440p sur les AAA les plus populaires. Des dires que nous aurons l'occasion de confirmer (ou non) d'ici quelques semaines à la lumière de nos propres tests.

La Radeon RX 6800XT est attendue elle aussi le 18 novembre, à un tarif de 649 dollars. Pour rappel, la RTX 3080 est proposée à un prix recommandé de 719 euros pour sa version de référence.

Radeon RX 6000-5 © © AMD
Radeon RX 6000-6 © © AMD
Radeon RX 6000-7 © © AMD

Radeon RX 6900XT : une (grosse) cerise sur le gâteau

Dernière annoncée, mais première sur le podium des performances d'AMD pour sa gamme Radeon cuvée 2020, la RX 6900XT arrivera pour sa part un peu plus tard sur le marché. Attendue le 8 décembre à partir de 999 dollars, elle dispose de 80 unités de calcul et hérite pour le reste des mêmes spécificités techniques que la RX 6800XT.

D'après AMD, ses performances devraient lui permettre de rivaliser avec la RTX 3090 sur la plupart des jeux en 4K, pour un tarif sensiblement moins élevé. Reste que la RTX 3090 se destine pour sa part essentiellement aux utilisateurs avancés et aux professionnels. Il faudra voir ce que la RX 6900XT peut apporter à ce segment du marché.

Radeon RX 6000-9
© AMD
© AMD

AMD Smart Access Memory

AMD compte enfin beaucoup sur sa technologie exclusive Smart Access Memory pour maximiser les performances de ses trois nouvelles Radeon, tout en récompensant les utilisateurs qui opteront pour une configuration 100 % AMD. Cette technologie permet en effet de faire travailler de concert un processeur Ryzen 5000 et un GPU Radeon RX 6000, tous deux installés sur une carte mère X570. Cette coopération confère notamment au processeur un meilleur accès à la mémoire GDDR6 pour lui accorder une plus grande vitesse de traitement.

Encore faut-il maintenant qu'AMD gagne la bataille de l'approvisionnement. Alors que NVIDIA peine à délivrer ses GeForce RTX en nombre, la firme de Lisa Su pourrait avoir une très belle carte à jouer en cette fin d'année si elle parvient à garantir les livraisons de ses puces dès les premiers jours de lancements. Une question de logistique très terre à terre, qui pourrait influencer le rang d'AMD sur le marché pour les prochains mois.

Radeon RX 6000-10

Source : Conférence AMD / Communiqués fournis par la marque

Vous êtes un utilisateur de Google Actualités ou de WhatsApp ? Suivez-nous pour ne rien rater de l'actu tech !
google-news

A découvrir en vidéo

Haut de page

Sur le même sujet

Rejoignez la communauté Clubic S'inscrire

Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.

S'inscrire

Commentaires (76)

Mike-de-Klubaik
Qu’on arrête avec cette histoire de raytracing, issu d’un marketing qui s’est fait littéralement mangé ces derniers temps. Avoir 2 ou 3 effets de lumière raytracés dans un jeu pour perdre 30 fps ? Il y en a qui sont sérieux ?<br /> Le raytracing en temps réel complet n’est pas encore pour tout de suite. Alors si c’est pour l’avoir partiellement… il y en a qui aiment bien se faire avoir par le marketing.
Goodbye
Avec du DLLS ça passe sans problème, encore faut il que le jeu accepte les deux techno.
Triseed
Bon bha voila!! je voulais me refaire un PC je pense que je vais revenir chez AMD pour le CPU et GPU!!
Steevenoo
Encore des cartes qui consomme une quantité énorme de courant
Jimmy_Cram
oui, je suis d’accord, le Ray Tracing ou pas, si le jeu est déjà beau et fluide, on n’en a pas besoin, personnellement, j’utilise Dirt Rally 2.0 qui n’a pas de Ray Tracing, et c’est vraiment très beau sans. Pour moi, ce qui compte, c’est la fluidité mêlée à la beauté de l’affichage, après comment ils font, je m’en fous ma 2070 me suffit pour l’instant.
oyeplage
+1
wackyseb
Tant pis pour eux si mon AMD 3900x n’est pas compatible avec smart access, c’est mort.<br /> Mais je vais quand même attendre les bench puis la dispo.<br /> On sera au alentours d’avril-mai d’ici là.<br /> Nvidia aura peut être une réponse avec des V2 gravés en 7nm voir des modèles Ti et encore mieux si c’est moins cher…
Mike-de-Klubaik
Là, j’avoue, je m’incline. La sobriété énergétique ne sera hélas pas de cette génération, quelque soit le constructeur choisi. Mais on ne peut reprocher à l’un ce qu’on n’a pas reproché à l’autre sur ce domaine. Il va falloir attendre une révision majeure ou carrément la génération suivante sur cette question…
AlexScan
Arrêter avec ça les gars, la dictature écolo vous matraque et vous vous acquiescé… 300W c’est pas une conso énorme, va donc visité un datacenter qui héberge des serveurs… rien que le fait d’être ici entrain de discuter de Radeon sur Clubic ça consomme bcp plus que 300W !<br /> Et le coup de l’électricité pour ton gaming avec 150w ou 300w tu verrai à peine la différence sur ta facture à la fin du mois… donc ce n’est même plus un critère de choix pour une carte gaming… à la limite la chauffe et le bruit que cela engendre je veux bien être d’accord… mais pas la consommation en elle même…
AlexScan
Sinon jolie coup d’AMD, j’attend les bench maintenant, mais moi je sais vers quel couleurs je vais aller pour jouer en 2021…
Mike-de-Klubaik
Perso ce n’est pas une question de consommation électrique, mais une question de chauffe que cela me pose problème. Entendre un PC hurler avec ses ventilos, j’ai connu ça un temps sur une config, ça m’a suffit.
Goranak
Beaux produits. AMD fait belle impression cette fin 2020 avec ZNE3 et RDNA2.<br /> Par contre, Clubic et Nathan Le Gohlisse, je trouve le ton de l’article très irrespectueux envers AMD. Vous parlez trop de NVIDIA dans un article de présentation des nouveaux GPU AMD. Vous n’avez pas fait ce coup là dans votre article de présentation NVIDIA début septembre. Vous comparez sans cesse : c’est déjà un test comparatif ?<br /> Dans l’ en tête vous avez choisi le mot RAYTRACING. Vous pensez vraiment que c 'est le point le plus important pour le mettre en titre ? la motivation principale des joueurs ?<br /> A la louche dans cet article de présentation des news AMD il y a 1 occurrence liée à NVIDIA pour 2 à AMD. Pourquoi autant ? chaque chose en son temps. Comparez dans votre test, pas l’annonce commerciale
dragonnoir
Comme d’autres, je suis bien content de ces nouvelles cartes, perso, je vais attendre la sortie de celle-ci et voir les tests et la comparaison avec la série 3000, car AMD ou Nvidia, j’ai pas grande confiance en leur test maison :o<br /> Par contre la consommation énergétique ce n’est pas vraiment mieux <br /> Voir aussi la disponibilité de ces cartes.
SlashUzero
Tu joues à metro avec et sans ray tracing, c’est pas le meme jeu…
newseven
Avez vous remarqué qu’ils ont tous 128 Mo de cache avec 16 Go de GDDR6 .<br /> Il doit y avoir une bonne raison !<br /> Le 4k est très gourmand en mémoire peut-être !<br /> 16 go c’est beaucoup pour une carte graphique .
duck69
En 4k avec 60fps mini c’est pas avec 75w que tu va faire quelque chose.
Niverolle
Si on part sur du 2 Go pour faire de la HD sans compromis, il faut grosso modo 4 Go pour la FHD, 8 Go pour la QHD, et donc 16 Go pour la 4K (et même 64 Go pour la 8K).
fawaz
150 W de différence à raison de 4 heures par jour (ça suppose que tu joues 4 heures pas jour en moyenne avec ta carte poussée dans ses derniers retranchements) en heures pleines ça donne du +2,7€ par mois sur ta facture.<br /> Ne pas perdre de vue qu’en IDLE, les cartes consomment pas grand chose puisque la conso globale, tous composants compris, se situe aux alentours de 70W.
Mike-de-Klubaik
Si AMD avait sorti cet techos, on aurait crié à l’arnaque… mais puisque Nvidia l’a sorti, on crie au génie…<br /> Comme pour G-Sync. Pleins de «&nbsp;spécialistes&nbsp;» ont poussé le truc malgré l’incroyable surcoût, parce que Freesync, tu vois, c’est pas assez hype… résultat : G-Sync aux oubliettes.
kast_or
Comme certains le Ray tracing je m en contre fou. Par contre le dssl est vachement intéressant, ça serait bien qu AMD montrent qu ils sont vraiment dans la course là dessus.
raymondp
en tout cas, c’est cher !
detonyle
Faut arreter de dire n’imp… 150W H24 oui c’est 10-15€ en plus…ton GPU tourne quoi 6H/j… donc 2.5€/mois soit 30€/an pour un gpu a plus de 500€… faut arreter le delire
mamide
AMD dépasse cette fois-ci Nvidia dans l’optimisation … regardez le nombre énorme de coeurs chez Nvidia et pour un résultat qui n’est pas à la hauteur par rapport à la dernière génération avec la moitié des coeurs !<br /> Vous ne trouvez pas bizarre qu’une rtx 3070 avec 1200 Coeurs en plus + architecture nouvelle + 8 nm … et on au final on arrive aux mêmes performances qu’une RTX 2080 Ti voire moins !<br /> On sent qu’il y a plus de progrès chez AMD avec presque le même nombre de coeurs pour le Mid Range et des performances explosives !
mamide
euh 1000$ une RX 6900XT qui égale la RTX 3090 à 1500$ … pas si cher que ça !
Mike-de-Klubaik
Non ! Le RT Core et le Tensor Core ça éclate tout ! Rien que par leur nom ! Ou pas…
pecore
Je ne sais trop quoi penser de cette présentation. Je suis satisfait par certains cotés, un peu moins par d’autres. Pour commencer pour la 6800 je ne m’attendais pas à ce qu’elle soit plus chère que la 3070. Certes il faudra voir les prix des cartes constructeurs vu que pour l’instant aucune ne s’approche du prix conseillé pour la RTX 3070, mais tout de même.<br /> Pour la 6800 XT je m’attendais à des performances équivalentes à une 3080 pour environs 100$ de moins. C’est finalement 70$, ce qui est toujours bon à prendre surtout si les performances sont supérieures. Et là encore il faudra voir le prix des cartes constructeur qui pourraient d’avantage respecter le prix conseillés.<br /> Enfin et surtout je m’attendais à de vrais benchmarks de jeux, images à l’appui et pas à quelques chiffres difficilement vérifiables. Cela veux dire qu’il faut encore attendre 20 jours pour savoir si oui ou non AMD a réussi à faire jeu égal avec Nvidia alors que je m’attendais à avoir la réponse ce soir. La comparaison avec Nvidia et sa 3070 qui offre de vrais chiffres est ici à l’avantage des verts et c’était probablement le but recherché.<br /> Enfin je trouve l’écart de prix entre la 6800 et la 6800 XT un peu faible, l’une risque de concurrencer l’autre.
Mike-de-Klubaik
Euh… Sincèrement ? Tu t’attendais à quoi ? Une auto-flagellation de AMD pour satisfaire ton envie de «&nbsp;neutralité&nbsp;», alors que Nvidia a présenté des benchmark sans que (trop de) personne n’ait moufté ? Tu crois que vraiment Nvidia était objectif durant sa présentation des dernières puces ? Je ne comprend pas cette manie d’imposer aux autres ce qu’on n’impose pas à soi-même…
JeXxx
Ca reviendrait par jour à 0.51€ avec une 150W en se basant sur le prix moyen du kwh qui est de 0.1765€<br /> image988×1030 186 KB
enestu
Le marketing ça sert à faire des ambassadeurs de marque prêts à acheter n’importe quoi à partir de 3 graphiques non vérifiés. Tout devient une vérité.
enestu
Nvidia les performances sont largement vérifiées, on sait. Ils avaient à peine gonflé la présentation. Là tant qu’on n’a pas testé on ne sait rien…Et peut-être que dans quelques semaines ce sera ok sans mauvaise surprise ou pas.<br /> Le marketing ça sert à faire des gogos qui vont 10 posts d’affilés pour soutenir leur marque sur une base vide… De bons petits esclaves.<br /> Quelque soit la marque ce type de présentation est du bullshit.
enestu
Nwseven, une partie du choix la quantité de Vram vient du choix du constructeur mais est contraint par la largeur de bus. Celui de la 6800XT n’est pas énorme et oblige à un choix de 8GB ou 16GB.<br /> 8GB suffisent pour une utilisation gaming mais c’est pas vendeur donc le choix s’est tourné vers 16Gb. En effet dans les bêtises que tu vas lire, il va y avoir des chiffres délirants sur la quantité de vram. AMD veut vendre des cartes…<br /> Aucun titre ne prend plus de 8 Gb en 4K. On peut avoir cette impression car certains titres préemptent la vram mais ne l’utilisent pas forcement toute. C’est par ailleurs le cas pour certains OS ce qui rend les comparaisons caducs.<br /> Si tu veux avoir de bonnes infos il faut lire les articles des sites FR ou EN (tweak3d, techpowerup, Arnandtech, etc.) et pas les commentaires…
Goodbye
G-Sync c’est quand même vraiment bien, comme Freesync, l’un ou l’autre, de toute façon un écran Free Sync prend en charge le G-Sync
Pascal_Pacsou
Si Noël 2021​:joy:
Krys
A 10 euros/mois et 150W, le mec passe plus de 12h par jour à jouer, tous les jours… Je pense qu’un tel nolife n’est pas à 10€ près.
newseven
C’est le haut gamme c’est normal que c’est cher .<br /> Nvidia n’est pas mieux avec c’est RTX 3070 499 ! backorder ,RTX3080 699 1 backorder et la RTX 3090 1500 ! backorder .<br /> Il va surement y avoir aussi bientôt une 6700 et une 6500 faut juste est être patient pour le début de 2021 .
newseven
C’est faux ce n’est pas Free Sync qui prend en charge mais c’est Nvidia qui a trouvé une astuce utiliser la technologie Free Sync qui se je trompe pas est gratuit .<br /> Pour le VRR c’est le FreeSync qui a gagner parce-que les constructeurs de télévision ont choisis le moins cher $$$ .<br /> La licence du G-Sync coûte beaucoup trop cher .<br /> Clubic.com – 8 Jul 20<br /> Comment profiter du G-Sync sur un écran FreeSync ?<br /> Vous possédez un écran doté de la technologie FreeSync d'AMD, mais celui-ci est connecté à une carte graphique NVIDIA ? Découvrez sans plus attendre comment profiter du taux de rafraîchissement variable (VRR) aussi bien sur des écrans reconnus G-Sync...<br />
OpenJbx
Quoiqu’on en dise, le raytracing c’est quand même l’avenir, et ça fait une vraie différence sur le rendu. C’est comme si à l’époque on aurait dit que le transform &amp; lighting c’est too much, alors j’vais garder ma 3dfx. Ou que les shaders, qui va apprendre à coder ça, vaut mieux rester au pipeline fixe.<br /> Suffit de voir les previews de Cyberpunk pour voir qu’il y a un énorme gap au niveau de l’éclairage ou des ombrages. Alors bien sur on est pas encore au niveau d’un film d’animation complètement raytracé mais c’est quand même LA tendance des prochaines années.<br /> Je dis pas ça contre AMD, ils sortent des putains de cartes là, ils reviennent dans le game, et je suis même assez persuadé que la prochaine fois ils vont tout rafler, sur tous les tableaux (RT &amp; raster). Mais le RT c’est pas un gadget, c’est un vrai avantage visuel qui certes s’ajoute à une longue liste, mais qui est clairement l’innovation du moment mais aussi la direction dans laquelle on va.
fawaz
Le but c’est de calculer le surcoût que va coûter l’utilisation d’une carte de type RTX3080 par rapport à une petite RTX1060.<br /> Pourquoi tu ajoutes le prix de l’abonnement EDF dans ton calcul ??
tfpsly
AlexScan:<br /> Arrêter avec ça les gars, la dictature écolo vous matraque et vous vous acquiescé… 300W c’est pas une conso énorme, va donc visité un datacenter qui héberge des serveurs… rien que le fait d’être ici entrain de discuter de Radeon sur Clubic ça consomme bcp plus que 300W !<br /> Ça c’est une légende urbaine, la transmission de données consomme un peu plus que les datacenters, et les appareils utilisateurs bien plus. Voir la dernière vidéo de M. Bidouille - Internet et le climat :<br /> 780×468 46.5 KB
airgobs
Mouais même sur une journée de 8h de jeux AAA par jour ça représente 6€ dans le mois pour la différence de conso à 150W.<br /> Et encore dire qu’une carte haut de gamme ne consomme que 150W en pleine puissance, je veux bien voir ça.
casimir79
Quoi que l’on puisse en penser, coût, tdp,technologie…Je pense qu’avec cette génération, que ce soit chez nvidia ou amd on a passé un cap pour le plus grand bonheur des joueurs que nous sommes. Ne pas avoir à sacrifier la résolution/graphismes pour gagner des ips ou inversement. Dans tous les cas on est assuré de jouer dans des conditions plus que confortables sur les gpu les plus abordables.
Pi_upi_u
hummm je suis deg, j’ai un proc 3900X mais ma carte mère est une ROG STRIX B550-E. ça changera beaucoup de chose ? (sachant que cette carte mère est compatible PCI-4 )
Wifi93
Le ray-tracing temps réel, c’est l’avenir c’est clair. D’ici 2025, les cartes pourront le supporter en 4k et 8k sans problèmes. Concernant les cartes AMD, je vois surtout pas mal d’annonces. Attendons de voir ce qu’elles ont réellement sous le capot pour vérifier. J’ai surtout souvenir de pilotes pas vraiment au point qui généraient nombre de problèmes.
Doss
C’est claire aujourd’hui le Ray tracing est le seul élément distinctif pour le GPU, qu’un AAA en ultra 4K tourne à 90 sur une carte et à 94 sur l’autre ne change pas grand chose. Au final les AMD vont cibler les joueurs «&nbsp;compétitif&nbsp;» qui veulent jouer à LOL ou Fortnite en 2K 250fps.<br /> Bref, AMD font des carte pour benchmark mais pour le joueur qui veulent acheter des GPU haut gamme c’est pour avoir du 4K+RT à 60fps.
mamide
Pour l’instant je juge par rapport à ce qu’on nous a donné comme info … ces CPU ont la moitié des coeurs des RTX 3000 et font le même travail !<br /> Et on parle de la puissance brute fournie par les coeurs de calcul … chez Nvidia c’est les CUDA Cores qui sont en très grand nombre … en voyant 10.000 Coeurs dans la RTX 3090 je me suis dis qu’ils n’auront pas à sortir de GPU d’ici 5 ans <br /> Les Tensor Cores et RT Cores ne servent à rien dans le calcul et ne fonctionnent que si le jeu possède le DLSS et le Ray Tracing sont activés !<br /> ils auraient dû rester sur le 7nm de TSMC … comme ça on aura une bon rapport performance/watts
Son_Nguyen
L’immersion, les ombres projetées, l’ancrage des objets sur le sols sont des détails perceptibles auquel je suis sensible. Après si tu as le matos qui suit 4k hdr et le budget… Mais je joue sur contrôle en 1440p Ray tracing 60 fps comme Métro Exodus oui il y aune différence notable. Le Ray tracing devient un standard mais à petite dose. Les jeux 4j full path tracé ne sont pas une réalité. Sans doute en 2024 ça le sera avec les techno de supersampling qui seront arrivées à maturité. Donc pour l’instant c’est nvidia dlss + rt pour moi mais je suis content qu’amd mette un coup de boule à Nvidia car la série 3000 le lancement c’était une blague.
Son_Nguyen
Ou flight simulator en 4k 60 fps…
mamide
Doss:<br /> AMD font des carte pour benchmark mais pour le joueur qui veulent acheter des GPU haut gamme c’est pour avoir du 4K+RT à 60fps.<br /> Ahhhhh encore une victime du marketing «&nbsp;Ray Tracing&nbsp;» … c’est le même délire du 120 Hz sur Smartphone …<br /> Faut arrêter avec le Ray tracing … les moteurs graphiques évoluent régulièrement et le Ray Tracing tue les performances pour quelques effets dont on peut bien se passer !<br /> C’est bien de comparer les RTX 3080 et 3090 avec des jeux sortis ces 2 dernières années mais qu’en est-il des futurs jeux ?? qui peut garantir qu’ils peuvent faire tourner les jeux en 4K 60 FPS + RayTracing ??<br /> Honnêtement cette génération ne m’enflamme pas parce que y a trop de coeurs pour des performances pas à la hauteur !<br /> Quand on augmente les coeurs c’est pour compenser une faiblesse dans l’optimisation de l’architecture et sur ce point AMD a bien bosser contrairement à Nvidia !
mamide
On aimerait bien voire une RTX 3000 à 4300 Coeurs et ce que ça va donner comme performance !!!<br /> Hélas une RTX 3000 avec le même nombre de coeurs qu’une RTX 2080 Ti est moins performante alors que l’architecture a changé et le process node aussi !<br /> ça veut tout dire !
ShuntUp
D’après les leak,on aura une meilleure performance que la 2080Ti mais ça sera inférieur aux Ampere. Donc à mon sens, on aura du RT «&nbsp;good enough&nbsp;». Le RT restera utilisé avec une grande parcimonie durant à mon avis encore 1 bonne génération après (voir ce que donne Quake RTX en termes de perf), ce qui ne veut pas dire que ça n’améliorera pas véritablement le look bien avant.<br /> Je suis assez d’accord avec l’analogie du T&amp;L à l’époque de 3Dfx, même si pour Turing, je considère que ça aurait été sortir la GeForce avec du T&amp;L ayant les perfs de la Riva 128).<br /> Le Fidelity FX d’AMD est leur volonté d’atténuer l’impact de leur implémentation a prioiri inférieure à Nvidia, et ailleurs on lit plus qu’ici les fervents amoureux du DLSS, qui je l’avoue en 2.0 est excellent (alors que le 1.0 était une pure daube, même si techniquement intéressant) pour critiquer les Navi2. A voir ce que donnera la solution d’AMD en cours de peaufinage.<br /> Mais bref, les ceusses considèrant que le RT Nvidia c’était déjà génial avant Ampere, ben ça sera mieux, même si ça sera pas la plus grosse sur la table.<br /> Ce qui est un peu dommage, c’est que la concurrence donne de bien que Nvidia qui était bien informé a poussé Ampere autant qu’ils l’ont pu (refroidissement spécifique aux petit oignons pour dissiper 320W+, utilisation du die 102 et non 104 comme pour la 2080, 1080, 980, et clocké au maximum) et positionné la 3080 à un tarif «&nbsp;raisonnable&nbsp;» (quand on a été écorché vif par Turing), tout en considérant la 3090 intouchable (stop le baratin justificatif pseudo-Titan) et a donc compensé un peu, alors qu’à l’inverse AMD en profite pour se positionner au tarif officiel «&nbsp;scandaleux&nbsp;» de la 2080Ti (j’espère qu’en réel il sera moins cher que ne l’était en vrai la 2080Ti ~$1200 aux US et 1200/1400€ en France pendant un bail -_-). La différence étant que comparativement à Turing il y a a priori un saut de performance correspondant à l’augmentation perf/$, même si face à la 6800XT, on a visiblement le même problème qu’entre la 3080 et la 3090, où ça fait un peu cher les sous pour la différence.<br /> Si on revient dans le passé, la 7990 était sorti à ce tarif, mais c’était aussi une bi-GPU (et la 295X2 était encore plus chère à $1500, mais c’était surtout pour tâcler la Titan annoncée à $3000). Ca reste (très) cher (surtout si on ajoute un 5950X histoire de… hmm non non… ne pas craquer), mais comme visiblement la 2080Ti s’est vendue…
pecore
De plus, ce n’est qu’une supposition mal informée mais un GPU avec plus de cœurs n’est il pas plus cher à produire qu’un GPU avec moins de cœurs ? (plus du silicium utilisé, de travail de gravure et patin et couffin) . C’est une supposition logique qui expliquerait au moins en partie pourquoi une carte avec un GPU avec moins de cœurs est moins chère qu’une avec plus de cœur.<br /> Si l’on poursuit ce raisonnement les GPU d’AMD devraient être moins chers et moins compliqués à produire, ce qui signifie une meilleure marge pour négocier avec les fabriquant et une plus grande vitesse de production.<br /> Comme je le disais tout cela ne sont que des suppositions mal informées. Est ce que quelqu’un qui s’y connait pourrait me dire si je me trompe ou pas.
Urleur
excellent la concurence cest bon pour nous !
Doss
mamide:<br /> Ahhhhh encore une victime du marketing « Ray Tracing »<br /> Le Raytracing c’est le petit détail qui change tout, une foi désactivé on voit direct qu’il y a un problème au niveau des lumières et des reflets.<br /> Après si tu joue au raytracing sur youtube je comprend que tu ne vois pas bcp de différence car la raytracing apport bcp clavier/sourie en main quand les lumières et reflets suivent parfaitement tes mouvements et celle de tout l’environnement.<br /> Et pour les devs, quand on pourra faire du RT sans concession ça sera un énorme gain de temps.
JeXxx
Effectivement, je n’avais pas fait attention à ce détail, le champ était déjà pré rempli
tfpsly
Pour le raytracing : ne pas oublier que plusieurs des gros moteurs (CryEngine) développent leur propre solution sans utiliser le DRX (DirectRaytracing de Direct3D). Auxquels cas avoir des cores RT n’apporte rien.<br /> AMD a d’ailleurs communiqué quant à sa technologie Fidelity FX, qui permet un rendu hybride mêlant rastérisation (traitement traditionnel) et Ray tracing, pour ne pas trop impacter les performances.<br /> C’est également le cas de tous les rendus «&nbsp;RT&nbsp;» sur Nvidia/DRX! Les cores RT ne sont utilisés soit que pour l’éclairage et/ou les ombres et/ou les réflexions (mais difficilement les trois à la fois); mais la base reste la rastérisation.<br /> Les Radeon RX 6000 supporteront bien le DRX, selon d’autres sites. Ex, https://www.eurogamer.net/articles/digitalfoundry-2020-10-28-amd-unveils-three-radeon-6000-graphics-cards-with-ray-tracing-and-impressive-performance :<br /> The RX 6000 series will be the first AMD GPUs to support DXR ray tracing and other DirectX 12 Ultimate features, but we don’t have a good idea of ray tracing performance on the new cards, so hopefully this will be detailed soon. AMD also hasn’t announced a true competitor to Nvidia’s DLSS feature, which boosts frame-rates significantly in supported games to help offset that RT cost, so we’ll have to see if anything like that emerges later on.<br />
thudner-aurel
Tu as raison , AMD à adopté la même stratégie que pour la fabrication de ses processeurs Zen, à savoir une simplicité et efficacité de gravure qui leur permet une scalabilité énorme et un amortissement des couts exemplaires. Je soupconne qu’a positionnement tarifaire agréssif ils peuvent faire plus de marge que leur concurrent.
Goodbye
Oui c’est pris en charge , pas vraiment une astuce il faut juste l’activer , du coup c’est bien compatible et ça fonctionne très bien en jeu !<br /> VRR je vois pas c’est quoi en revanche
newseven
Définition Google<br /> VRR , pour Variable Refresh Rate désigne une fonctionnalité permettant de faire varier la fréquence d’actualisation des images sur l’écran en fonction de la disponibilité des images délivrées par la source. Cette fonctionnalité est un atout en utilisation jeu, elle permet d’améliorer la netteté des images en mouvement.
AlexScan
En réponse à Miky:<br /> Sur ce point on est d’accord comme je l’ai dit plus haut, après une refroidissement efficace peut dissiper 300W dans un «&nbsp;certain silence&nbsp;».<br /> Moi je joue au casque donc ce n’est pas trop important de mon point de vue, par contre dans le PC du salon ça l’est beaucoup plus !
AlexScan
En réponse à PierreKaiL:<br /> Ben dit donc tu doit passer bcp de temps à jouer toi !<br /> A 0.15€ le kilowatt/h la différence de 150W pour arriver à 10€ par mois fait + de 444h de jeu… sachant qu’un mois fait 744h… tu dort pas, tu travail pas ?<br /> Quand tu discute sur Clubic tu oublie les serveurs qui héberge Clubic, donc là on est plus à 100W du tout…
Mike-de-Klubaik
En fait, on oublie aussi, mais ce n’est pas que le bruit (et la config dont je parlais nécessitait un certain volume sonore même au casque), mais aussi la chauffe. Pas plus vieux que cet été, j’ai parfois hésité à lancer une partie, encore que, malgré le fait que ma config actuelle n’est pourtant pas réputée énergivore
SuperLobo
Ouais, à l’époque on disait pareil des ombres.<br /> Ombre qualité Ultra, Haute, Moyenne, Basse, Désactivée.<br /> Ben aujourd’hui, c’est avec le RT.<br /> Donc on comprend pas trop l’intérêt de ton commentaire ?
Goodbye
Ah, ouai pour moi les deux tech sont bonnes, y a pas vraiment de gagnant pour l’utilisateur final.<br /> G-sync continuera d’exister comme Freesync jusqu’à la prochaine tech j’imagine.<br /> Il y’a aussi L’ELMB* qui est intéressant sur les écrans gaming, mon Asus dispose de cette techno et franchement c’est juste génial en FPS en combo + GSYNC ou Freesync<br /> *ELMB :<br /> (Extreme Low Motion Blur) is Asus’ proprietary technology made to reduce eye tracking motion blur. It is a form of backlight strobing technology, made to eliminate any blur on the display by turning off the backlight of the monitor in between refreshes.
renard38
ou sinon y’a mieux que la 2060…la 5600XT…
mamide
Euh ça dépend des coeurs … comme je l’ai dit cette génération a explosé le nombre de coeurs mais les performances n’ont pas explosé comme on l’attendait !<br /> on peut pas savoir si les coeurs d’AMD sont moins chers à produire vu qu’il y a l’architecture qui va avec …<br /> En revanche c’est la mémoire GDDR6X qui coûte de l’argent à Nvidia et ce n’est pas juste du marketing de mettre seulement 10 Go de VRAM sur une RTX 3080.
mamide
Les jeux étaient déjà très beaux avant l’existence du Ray Tracing … faut pas oublier que les développeurs sont de mèche avec les fabricants de GPU.<br /> Dans quelques années je te donnerais peut être raison quand on aura pas besoin de choisir entre performance et Ray Tracing.
Doss
Ca sera toujours le cas… Comme aujourd’hui le faite de baisser le détaille de ombre d’un cran fait gagner un max de FPS pour un gain visuel négligeable mais appréciable. Car tout l’intérêt de taper dans le haut de gamme c’est de pouvoir tout mettre au max sans ce poser de question.<br /> Donc, aujourd’hui avec les 3080 RTX on peut mettre le RT et avoir du 4K60 stable ou sur le 3070 du 2k60 stable.<br /> Bref, a voir comment vont s’en sortir les RX 6000 avec ces même réglage. Mais acheter un GPU a 600€ ou plus et devoir sacrifier le Raytracing n’est pas imaginable.
tfpsly
Incroyable!<br /> 1080×594 26.6 KB<br /> Et ça a l’air de se confirmer :<br /> 705×544 58 KB
Highmac
J’ai fait du raytracing il y a bien longtemps, avec un Atari ST, avec P.O.V.<br /> Bon, pour une image en 320x200, il fallait un à deux jours.
Niverolle
enestu:<br /> Aucun titre ne prend plus de 8 Gb en 4K.<br /> Sauf que c’est déjà le cas en 4K/ultra (Assassin’s Creed Valhalla, GodFall). Pour l’instant 10 GB suffissent, mais on n’est qu’au tout début des jeux 4K. En effet, comme ces jeux consomment un peu plus de 6GB en QHD/ultra, la logique voudraient qu’ils demandent plus de 12 GB en 4K (c’est mathématique), sauf qu’ils restent sagement en dessous des 9 MB. En d’autres termes, on reste sur de la 4K castrée (et il en va de même coté polygones).
kyosho62
enestu:<br /> Aucun titre ne prend plus de 8 Gb en 4K.<br /> 12GB:<br />
Niverolle
Edit: oups, je pensais répondre à enestu <br /> Si tu ne me crois pas (je le constate pourtant sur AC:Valhalla), peut-être que tu croiras le développeur de GodFall qui parle bien de 12 GB : https://www.tomshardware.fr/les-10-go-de-vram-de-la-rtx-3080-insuffisants-en-4k-ultra-pour-le-jeu-godfall/<br /> Je crois que tu ne réalises pas bien ce que représente la «&nbsp;vraie&nbsp;» 4K. Il n’y a qu’a voir la grimace qu’on fait les propriétaires de RTX 20X0 en lançant Valhalla: ouin, bouh, ce jeu n’est pas optimisé, snif ! Des victimes du marketing qui ont crû qu’après la Full HD, il y aurait la 4K, sauf qu’il y a la QHD entre les deux…
Voir tous les messages sur le forum