RDNA 4 : l'impasse d'AMD sur le très haut de gamme se confirme

Nerces
Spécialiste Hardware et Gaming
03 avril 2024 à 19h27
40
La pause d'AMD sur le GPU très haut de gamme se vérifie encore un peu plus © AMD
La pause d'AMD sur le GPU très haut de gamme se vérifie encore un peu plus © AMD

La carte graphique Radeon RX 8800 XT pourrait se caler entre les actuelles RX 7900 GRE et RX 7900 XTX.

À l'origine, il n'était question que d'une rumeur en partie liée aux difficultés rencontrées par AMD sur la génération de cartes actuelle, la firme n'ayant rien à mettre en face de la GeForce RTX 4090.

Depuis quelques semaines, ce qui n'était donc qu'une supposition gagne en crédibilité avec des sources qui se multiplient et des informations qui placent les futurs Navi 48 autour du Navi 31.

RDNA 4 avant la fin de l'année…

Soyons clairs d'emblée, il n'est pas encore question de la moindre information officielle en provenance d'AMD. Si la société américaine continue de parler de RDNA 4 et de tabler sur une sortie prochaine… nous n'en saurons pas plus.

Nous le disions en préambule, la génération actuelle et les difficultés d'AMD à proposer une concurrence crédible à la GeForce RTX 4090 laissent toutefois penser que la marque pourrait zapper le très haut de gamme pour se focaliser sur les segments les plus vendeurs : entrée et milieu de gamme.

De manière presque cryptique, l'informateur All_The_Watts! s'est amusé à lancer des pistes sur X.com. Le bougre aurait obtenu des précisions sur les « équivalences » entre les GPU de génération RDNA 3 que nous connaissons bien et ceux de génération RDNA 4.

Pas plus puissante qu'une RTX 4070 Ti SUPER ?

Ainsi, nous apprenons que – supposément, hein – le GPU Navi 48 qui constituerait le plus puissant de la gamme RDNA 4 serait en réalité moins costaud que le Navi 31. De fait, la carte Radeon RX 8800 XT qui en serait équipée se retrouverait derrière la RX 7900 XTX.

Une information qui se rapproche d'une info précédemment publiée dans nos colonnes et qui disait que la RX 8800 XT serait au niveau de performances de la RX 7900 XTX, mais pour 50 % de son prix. De plus, la Radeon RX 8800 XT garderait l'avantage sur une autre 7900, la récente RX 7900 GRE et serait donc plus ou moins en face de la GeForce RTX 4070 Ti SUPER.

La RX 7900 GRE à peine moins puissante que la meilleure RDNA 4 ? © Nerces pour Clubic
La RX 7900 GRE à peine moins puissante que la meilleure RDNA 4 ? © Nerces pour Clubic

Descente en gamme oblige, le GPU Navi 44 serait évidemment inférieur au Navi 48, mais plus performant que le Navi 33 lequel est utilisé sur la Radeon RX 7600. À contrario, il serait supérieur au Navi 32 que l'on trouve sur les cartes type RX 7700 et RX 7800. On serait donc en présence d'un GPU à même de concurrencer les GeForce RTX 4060 Ti.

Tout porte donc à croire que RDNA 4 sera l'occasion pour AMD de faire une petite « pause » avant de repartir de plus belle sur RDNA 5. Une technique que la marque américaine a déjà expérimentée : RDNA 1 n'a pas connu le très haut de gamme et RDNA 2 a été l'une des meilleures générations d'AMD.

Source : Wccftech

Nerces

Spécialiste Hardware et Gaming

Spécialiste Hardware et Gaming

Tombé dans le jeu vidéo à une époque où il fallait une belle imagination pour voir ici un match de foot, là un combat de tanks dans ces quelques barres représentées à l'écran, j'ai suivi toutes les év...

Lire d'autres articles

Tombé dans le jeu vidéo à une époque où il fallait une belle imagination pour voir ici un match de foot, là un combat de tanks dans ces quelques barres représentées à l'écran, j'ai suivi toutes les évolutions depuis quarante ans. Fidèle du PC, mais adepte de tous les genres, je n'ai du mal qu'avec les JRPG. Sinon, de la stratégie tour par tour la plus aride au FPS le plus spectaculaire en passant par les simulations sportives ou les jeux musicaux, je me fais à tout... avec une préférence pour la gestion et les jeux combinant plusieurs styles. Mon panthéon du jeu vidéo se composerait de trois séries : Elite, Civilization et Max Payne.

Lire d'autres articles
Vous êtes un utilisateur de Google Actualités ou de WhatsApp ? Suivez-nous pour ne rien rater de l'actu tech !
google-news

A découvrir en vidéo

Rejoignez la communauté Clubic S'inscrire

Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.

S'inscrire

Commentaires (40)

pecore
Heureux possesseur d’une RX 7900 XTX, je peux en attester : c’est largement suffisant pour tout type de jeux et ce sera encore plus vrai si les technologies d’upscalling continuent de se perfectionner, comme cela semble être le cas.<br /> Alors ceux qui arriveront à se procurer une carte à la puissance équivalente pour 50% du prix ne seront pas lésés sur la marchandise, surtout que la carte aura sans doute des choses en plus par rapport à la génération précédente, en dehors de la seule puissance de calcul.
gothax
Tu as quoi comme modèle de 7900xtx ? Une hellhound ?
AtomosF
Ne pas concurrencer le THDG ca peut se comprendre (et a part pour l’image, l’intérêt est limité), par contre un gain de puissance conséquent entre 2 générations me parait le minimum.<br /> «&nbsp;La carte graphique Radeon RX 8800 XT pourrait se caler entre les actuelles RX 7900 GRE et RX 7900 XTX.&nbsp;» &gt; Ca représente quoi ? 15% ? Si oui, c’est bof pour un saut de génération. Surtout si en même temps le prix monte de 5/10%.<br /> Il faudrait aussi (et surtout ?) qu’AMD gère mieux le RT.
thomas.serruques
sauf si amd utilise deux die de 8800 colles pour faire unee 8900.
Blackalf
AtomosF:<br /> Il faudrait aussi (et surtout ?) qu’AMD gère mieux le RT.<br /> Je ne pense pas que ce soit leur priorité, ceux qui aiment le RT achètent Nvidia et ceux qui n’aiment pas ça et ne s’en soucient donc pas achètent AMD.
pecore
Une XFX Merc 310.
pecore
D’autant que cette histoire sur le RT qui ne marcherait pas avec AMD commence à ressembler à ce troll récurant sur les drivers AMD qui étaient, soi-disant, pourris.<br /> Je viens de finir Hellblade avec le RT activé, en 1440p tous détails à fond et FSR en mode ultra qualité. Je tournais à 150 fps en moyenne sans problème.
AtomosF
Pas faux. Qu’ils améliorent le FSR et le Frame Gen alors, car ça c’est vraiment utile, quoi que sans RT … beaucoup moins !
Mel92
A un moment, de toutes façons, la course à la puissance brute va s’arrêter. Les dernières puces comme la RTX490 sont déjà énormes, requièrent une consommation gargantuesque et coûtent un bras. Doubler le nombre de cœurs (peu ou prou ce qu’il faut faire pour doubler la puissance de calcul) n’est pas raisonnable, en tout cas pour jouer.<br /> Il me semble que l’architecture GPU dans son principe même arrive au bout. Il faudrait autre chose, c’est à dire d’autres algos pour représenter un monde en 3D, et peut-être aussi arrêter de rêver au photoréalisme qui de toutes façons est inatteignable (et pour moi pas souhaitable).
juju251
pecore:<br /> D’autant que cette histoire sur le RT et AMD commence à ressembler à ce troll récurant sur les drivers AMD qui seraient, soi-disant, pourris.<br /> Du troll sur AMD ?<br /> Nan, impossible. <br /> Je rappelle juste en passant que d’après certains, cela fait 25 ans (et je suis gentil) que AMD doit «&nbsp;fermer dans l’année à venir&nbsp;».<br /> Je vous laisse méditer sur cette dernière phrase.
Blackalf
AtomosF:<br /> Pas faux. Qu’ils améliorent le FSR et le Frame Gen alors, car ça c’est vraiment utile, quoi que sans RT … beaucoup moins ! <br /> En fait, il n’y pas de mieux ou moins bien au sujet du RT, ça relève simplement des goûts et des couleurs. <br /> Personnellement, j’ai regardé beaucoup de vidéos et d’images comparatives de nombreux jeux avec/sans RT et je préfère systématiquement sans. L’excès nuit en tout et c’est valable aussi pour les reflets, je ne vois pas l’intérêt d’avoir par exemple des sols au rendu poli miroir.<br /> C’est particulièrement flagrant dans le jeu Control, les sols sont inutilement brillants (et en passant, je n’ai jamais vu de sols pareils dans aucun bâtiment dans la réalité), beaucoup d’objets sont trop lumineux, la différence ne se voit même pas sur bien d’autres, à moins de passer son temps à inspecter le décor à la loupe, ce qui n’est pas vraiment le but de la plupart des joueurs.<br /> Bref, certains considèrent le RT comme indispensable et d’autres non. ^^<br /> Control<br /> https://youtu.be/i83sW90aAkY?si=unWd_Oal_zU4vQgx<br />
arsworld
Et sinon NVIDIA des prix décent avec plus de 8go de RAM … Parce que perso, l’IA générative en local aime bien ça la RAM… Les cartes AMD ne sont pas privilégiées non plus pour ça (pour l’ia en local j’entends)… Et à par de rares exceptions ce sont des radins en RAM chez nvidia. Une équivalente à la 4060 Ti 16go à 400 balles ce serait parfait par exemple…
Martin_Penwald
Mon Cyrix P166+ et ma 3DFX ont encore de la marge.
PasDinspiLeVrai
Le problème c’est que la 4060ti est franchement pas terrible et ne vaut certainement pas 400€ (sachant qu’en plus c’est une fiche technique de 4060 à l’intérieur), ses principaux problèmes étant la faiblesse de sa puce graphique et la trop faible largeur de son bus.
dredd
Le RT c’est loin d’être uniquement des reflets.<br /> Des sols aussi brillants, en vrai, on en voit. Mais dans la réalité, personne ne fait attention a ce genre de trucs. Le moindre écart entre réalité et rendu 3D va de toute facon sauter de plus en plus au visage. L’uncanny valley c’est pas que pour les visages.<br /> Et dernier truc important. Le RT reste évidemment une priorité pour AMD ne serait-ce pour espérer garder le marché des consoles à la prochaine génération sans quoi ça lui ferrait un sacré trou dans le budget.
brice_wernet
Quitte à avoir de la ram plus lente d’ailleurs pour l’IA locale. Que ça tourne moins vite, mais que ça tourne au moins!
arsworld
Pour l’avoir vu tourner je la trouve largement suffisante pour mes besoins. J’ai encore une bonne vieille 1080 qui tient le coup mais ça ne durera pas.<br /> On s’est bien fait mettre côté tarif depuis le minage et la période covid je te l’accorde.
Cleever
Une 8800 XT aussi bonne qu’une 7900 XT ? Un scandale ?<br /> Quid de la 7800 XT plus ou moins aussi bonne qu’une 6900 XT ?<br /> Ca a toujours été comme ça, fausse news.<br /> Et pour ceux qui pensent que l’intérêt de Nvidia, ce n’est que du RTX, ne vous mettez pas à la 3D, à l’IA, au montage professionnel, au VFX à Unity et à Unreal.<br /> AMD c’est fait pour jouer uniquement, Nvidia pour les pros… ou les curieux.
Phi777
Dans votre commentaire, vous indiquez ce qui suit :<br /> 𝗦𝘂𝗿𝘁𝗼𝘂𝘁 𝘀𝗶 𝗲𝗻 𝗺𝗲̂𝗺𝗲 𝘁𝗲𝗺𝗽𝘀 𝗹𝗲 𝗽𝗿𝗶𝘅 𝗺𝗼𝗻𝘁𝗲 𝗱𝗲 𝟱/𝟭𝟬%<br /> Mais avez-vous lu l’article jusqu’au bout ?<br /> Il est précisé ce qui suit :<br /> 𝗹𝗮 𝗥𝗫 𝟴𝟴𝟬𝟬 𝗫𝗧 𝘀𝗲𝗿𝗮𝗶𝘁 𝗮𝘂 𝗻𝗶𝘃𝗲𝗮𝘂 𝗱𝗲 𝗽𝗲𝗿𝗳𝗼𝗿𝗺𝗮𝗻𝗰𝗲𝘀 𝗱𝗲 𝗹𝗮 𝗥𝗫 𝟳𝟵𝟬𝟬 𝗫𝗧𝗫, 𝗺𝗮𝗶𝘀 𝗽𝗼𝘂𝗿 𝟱𝟬 % 𝗱𝗲 𝘀𝗼𝗻 𝗽𝗿𝗶𝘅<br /> Par ailleurs, je présume que nous verrons certainement une amélioration de la consommation grâce aux évolutions technologiques.<br /> Cela me semble logique…<br /> Contrairement à la tendance que l’on observe depuis plusieurs années, où les alimentations ont dû devenir de plus en plus puissantes, pour permettre aux différents acteurs comme Intel, Nvidia et AMD de gagner en performance, tout en devenant de véritables gouffres énergétiques pour les consommateurs, nécessitant des alimentations de plus en plus grosses (500w 1000w 1500w voire 2000w si ce n’est plus).<br /> Voir l’article de Vincent RAMARQUES intitulé «&nbsp;2000 Watts pour une alimentation de PC…&nbsp;»
Emmanuel_ANGULO1
En fait, toute cette «&nbsp;course&nbsp;» à la puissance vient occulter un truc : l’usage. Car oui, sur le papier, on va dire que cette future 8800XT serait tout juste au niveau d’une 4070ti super sauf que justement une 4070ti super suffit plus que largement à 99% des usages gaming, surtout quand on utilise les technos de upscalling.<br /> Le principal c’est le rapport qualité/prix des GPU ainsi que la chauffe et la conso.<br /> Moi qui bosse dans l’automobile c’est comme si l’ensemble de la presse auto se contentait juste de comparer les modèles les plus extrêmes et en faire des valeurs étalon pour tout le reste.<br /> Honnêtement, qui possède une 4090 ici ?
Selyos
J’avais acheté une 7900 XTX, 1300€ à la sortie pensant qu’Nvidia abusait. J’ai vite déchanté… je n’ai eu que des problèmes hardware, au delà des 100hz freeze permanent ! Impossible de jouer de manière confortable. Problème reconnu et récurant sur une grande partie des premiers modèles sortie ! Dédommagement, un simple bon d’achat. Super, je suis rester avec ma RX580 pendant 3 mois avant de me faire rembourser !!! En attente d’analyse.<br /> Après cette mésaventure, je me suis tourné vers la 4090, ben écoute, c’est juste la meilleur, suivi permanent, optimisation irréprochable.<br /> Tu dis qu’elle consomme énormément, en réalité faut se renseigner un peu plusieurs tuto et test explique que bridé à 60% comme je l’ai fait, fait baisser sa consommation drastiquement, beaucoup moins au final qu’une 7900XTX à puissance supérieur ! Oui en effet, à 60%, elle perd que 1 à 3% d’fps soit ridicule sur une échelle de 100 !<br /> Comme tu peux le vois sur les screens, je joue au dernier Horizons (en 3440x1440) tout au maximum sans le DLSS activé ! en moyenne 90-125 fps et sur ma tv 120hz 4k, aucune différence !<br /> Bref, tout ça pour dire qu’AMD pour moi en carte graphique c’est fini ! Le FSR est vraiment sympa, là dessus on peut pas le nier mais pour le reste c’est 0.<br /> Pour les processeurs, AMD reste les meilleurs. A bon entendeur.<br /> Sans titre 011920×804 203 KB<br /> Sans titre 021920×804 177 KB<br /> Sans titre 031920×804 172 KB<br /> Sans titre 041920×804 164 KB
Kvn_Jma
C’est décevant…<br /> Non seulement la nomenclature chez AMD est imbitable alors que chez Nvidia c’est bien plus cohérent et compréhensible.<br /> Ensuite AMD ne propose rien de concret face aux verts :<br /> Pas de technologies plus performantes, que ce soit le FS3 ou leur Frame Generation maison, les tests montrent qu’elles sont inférieures au DLSS 3.5 et au Frame Generation d’Nvidia<br /> Rien pour tenir tête aux 4080 et encore moins aux 4090 en rasterisation<br /> C’est dommage parce que côté CPU, AMD est au top de sa forme (même si j’ai hésité après avoir été sous un 5950X avant de repasser sous Intel avec un 14900K).<br /> D’un autre côté il semblait que d’après les rumeurs Nvidia attendait de savoir ce qu’allait faire AMD pour déterminer si oui ou non ils devaient accélérer la sortie de leur génération 5000.<br /> Si ça peut repousser cette génération à 2025 ça m’arrange pour mettre ce qu’il faut de côté pour basculer sur une 5080 ou une 5090.
Nmut
Cleever:<br /> AMD c’est fait pour jouer uniquement, Nvidia pour les pros… ou les curieux.<br /> Pour le reste je ne sais pas, mais cette phrase est incorrecte. Les cartes AMD sont bien plus puissantes à prix équivalent et bien plus flexibles que les NVidia en OpenCL =&gt; pour les pros, ça dépend de leur utilisation!<br /> Kvn_Jma:<br /> Non seulement la nomenclature chez AMD est imbitable alors que chez Nvidia c’est bien plus cohérent et compréhensible.<br /> Le format &lt;génération&gt; de AMD est-il très différent du format &lt;génération&gt; de NVidia? Vraie question hein, je ne comprends pas ta remarque…<br /> Encore si tu parlais de la gamme précesseur AMD avec des numéros de gamme incohérents entre les portables et les desktops (voir même dans la gamme desktop)…<br /> Kvn_Jma:<br /> Pas de technologies plus performantes<br /> Tout à fait, et c’est pour ça que le positionnement tarifaire est différent, avec un meilleur perf/prix pour compenser les fonctionalités «&nbsp;annexes&nbsp;» moins performantes.<br /> Kvn_Jma:<br /> Rien pour tenir tête aux 4080 et encore moins aux 4090 en rasterisation<br /> Et c’est assumé. AMD n’a pas les moyens de proposer un modèle «&nbsp;prestige&nbsp;» qui ne se vendra quasiment pas, n’a qu’un intérêt moyen pour leur coeur de cible (les gamers) et donc leur sera particulièrement couteux. C’est peut-être une erreur marketing, mais ça a du sens.
_Reg24
À vue d’oïl, c’est sûrement d’% des joueurs qui ont une 4090, donc ils peuvent laisser ce marché de niche au vert, c’est du côté de l’entrée / milieu / haut de gamme qu’il faut attaquer!
Emmanuel_ANGULO1
La nomenclature AMD est encore plus imbittable sur les CPU… Vas comprendre leurs histoires de génération 8000 qui sera à la fois sur Zen4 et Zen5 avant de basculer sur la 9000 en cours de route tout en continuant la 5000.<br /> Idem pour les versions Laptop … entre les 7735 qui sont des «&nbsp;vieux&nbsp;» les 78xx qui sont «&nbsp;nouveaux&nbsp;» et qui sont tous déclinés dans des versions de TDP plus ou moins adaptés à des usage bureau ou jeu léger
Agalma
Non, le RT n’est (plus) AMD pour les consoles : Sony a vu le désastre avec le FSR de l’APU AMD de la PS5 et a décidé de faire le travail lui-même pour la PS5 Pro avec le PSSR qui est une sorte de DLSS . On peut penser que le PSSR sera dans une puce dédiée (RV fin de l’année) dans la nouvelle puce AMD (qui double les coeurs qui passent de 36 à 60).
dredd
Ce qui n’a qu’un rapport indirecte avec le Ray Tracing qui n’est pas une méthode d’upscale d’image mais de calcul de projections de rayons.<br /> Le rapport est simplement qu’avec une méthode d’upscale éfficace, on peut baisser la résolution interne du rendu, donc permettre au GPU de dégager assez de puissance pour calculer plus efficacement les rayons. Mais en soit, ce n’est pas lié.<br /> Si AMD vient avec une solution économique et éfficace, Sony ne dira pas non. Microsoft encore moins.
Agalma
On vient de te dire qu’AMD n’a aucune méthode et que Sony a décidé de faire son propre système : le PSSR.
dredd
On vient de te dire que tu mélanges deux truc qui n’ont pas de rapport.
pecore
Selyos:<br /> je n’ai eu que des problèmes hardware, au delà des 100hz freeze permanent !<br /> On n’a pas dû acheter la même alors, surtout que la mienne a couté 200€ de moins.<br /> Le seul problème que j’ai eu, c’est lorsque j’ai voulu utiliser le Ray Tracing pour la première fois : extinction du PC au bout de quelques minutes de jeu. Quelques recherches et cogitations plus tard, j’ai trouvé le problème : mon alimentation LUX merdique ne suffisait pas pour le RT et en plus, j’aurai dû m’y attendre. À ma décharge, je ne savais pas que le RT demandait autant de puissance, ne l’ayant jamais utilisé.<br /> Une Corsair RM1000e plus tard, tout était réglé et la carte fonctionne aux petits oignons. Comme quoi les problèmes qu’on impute parfois au matériel viennent parfois simplement de l’utilisateur.
pecore
Kvn_Jma:<br /> Rien pour tenir tête aux 4080 et encore moins aux 4090 en rasterisation<br /> Pardon ? <br /> la XTX dépasse la 4080 en rastérisation, tout en étant 400$ moins chère en tarif de lancement. Depuis, l’écart de prix s’est (un peu) resserré, mais la différence de performance demeure.<br /> Cowcotland – 5 Oct 23<br /> AMD Radeon RX 7900 XTX versus Nvidia GeForce RTX 4080 : nouveau match avec...<br /> Nous avons le droit ce jour à un re test de deux cartes graphiques haut de gamme chez Techspot. Notre confrère oppose de nouveau la RX 7900 XTX des rouges face à la GeForce RTX 4080 des verts. La première carte est...<br />
Blackalf
La vérité, c’est qu’au-delà des benchs et du baratin technologique, il n’y a au final qu’un seul et unique critère de jugement : vos jeux tournent-ils bien, ou pas ? ^^<br /> Personnellement, j’ai des cartes ATI-AMD depuis + de 25 ans (je me rappelle d’une Rage 128 dans les années 90, mais pas si j’ai eu d’autres cartes ATI avant elle), j’ai été satisfait de toutes et je n’ai jamais eu de problèmes.<br /> Mais il est vrai que j’ai presque toujours eu les meilleurs modèles au fil des générations : 9700 Pro, X850 XT, X1950 XT, HD5870, R9 280X (HD7970 rebadgée) et actuellement RX 6750 XT.
pecore
Agalma:<br /> Sony a vu le désastre avec le FSR de l’APU AMD de la PS5 et a décidé de faire le travail lui-même<br /> Tu tires les conclusions qui t’arrangent et tu montres surtout ta partialité et ton manque de connaissance sur le sujet. Le FSR 2 marche tout à fait bien, les tests et les retours utilisateurs l’ont démontré. Le fait que presque tous les fabricants de consoles se tournent vers AMD est aussi un indicateur.<br /> Il peut y avoir 36 raisons conduisant Sony à utiliser sa propre solution sur puce dédiée : kit de développement optimisé, faire évoluer la console sans changer l’APU, installer une différenciation plus importante entre la Playstation et les autres plateformes de gaming et j’en passe.<br /> En tout cas, aucun des articles sur le PSSR ne fait état que Sony développerait sa solution pour des raisons d’insatisfaction vis-à-vis du FSR, ça, c’est ce que toi, tu veux y voir. D’ailleurs, vu la proximité entre les deux noms, il y a de fortes chances que le PSSR s’inspire beaucoup du FSR, qui, je le rappelle, est open source.
Agalma
Non, je tire des conclusion logiques. Le FSR est une catastrophe. Tout le monde le sait il suffit de voir les images. Sony ne peut pas se permettre de laisser le RT de côté. Ni MS d’ailleurs, qui vont sans doute, faire pareil. Ces fabricants se tournent vers AMD, car ni Intel, ni Nvidia ne veut proposer de produits ; ça ne les intéresse tout simplement pas : ils savent que les exigences tarifaire de MS et Sony pour les consoles sont très serrées : il n’y a que très peu de marge à se faire. Sony et MS n’ont pas d’autre solution qu’AMD : ils font donc avec.<br /> Si le FSR (qu’il soit open source ne change rien à l’affaire…) donnait satisfaction, Sony ne se serait pas ennuyé à dépenser de l’argent pour faire sa solution maison avec (peut-être) une puce dédiée (comme Nvidia) dans le GPU AMD , puce qu’AMD ne veut/peut pas faire (argent, personnels, etc.). Les entreprises ne dépensent pas d’argent pour rien comme tu tentes de le faire accroire. Le FSR c’est la mise à l’échelle du pauvre, Sony l’a bien compris et s’est mis au travail : résultat fin de l’année.
Palou
Blackalf:<br /> La vérité, c’est qu’au-delà des benchs et du baratin technologique, il n’y a au final qu’un seul et unique critère de jugement : vos jeux tournent-ils bien, ou pas ? ^^<br /> Voilà, c’est tout ce qui compte
TNZ
C’est marrant, moi c’est exactement l’inverse : le nVidia ne fonctionne pas bien chez moi alors que les produits AMD sont justes irréprochables !
Kvn_Jma
Nmut:<br /> Et c’est assumé. AMD n’a pas les moyens de proposer un modèle « prestige » qui ne se vendra quasiment pas, n’a qu’un intérêt moyen pour leur coeur de cible (les gamers) et donc leur sera particulièrement couteux. C’est peut-être une erreur marketing, mais ça a du sens.<br /> Je suis moi même possesseur d’une RTX 4090, j’ai dans mon entourage 3 joueurs PC qui ne sont pas de gros geeks boutonneux et deux ont également une RTX 4090 et le troisième une 4080.<br /> Alors soit je suis dans un nid et une anomalie, soit les 4080 (du moins) ne sont pas si ne niche que cela et les 4090 pas hors de portée des joueurs qui veulent se mettre bien en 4K avec du RT et du Full Ultra.<br /> A sa sortie la RTX 4090 FE c’était 1600€, des gens paient des iphones ce prix là sans trop se poser de question, alors ça fait relativiser la niche.<br /> Ces cartes sont bonnes pour le prestige de la marque et pour ancrer dans la tête des joueurs que les verts c’est les meilleurs (et ça marche), elles sont bonnes pour les marges (Nvidia marge à mort sur le HDG), et ne doivent finalement pas se vendre si mal que ça même si évidemment ça n’est pas du tout le cœur de la gamme je le sais.<br /> Je trouve donc pour ma part, mais je ne suis pas Lisa Su, que c’est une bêtise de ne rien mettre en face d’une 4080, surtout quand tu as démontré tes capacités d’innovation dans le domaine du CPU, que tu as accès aux bonnes finesses de gravure et que tu as enfin du FSR3 et du Frame Generation maison qui ne sont pas aussi bons que chez les verts mais peuvent faire le café en vendant le tout à un tarif un peu plus raisonnable.
Kvn_Jma
pecore:<br /> la XTX dépasse la 4080 en rastérisation, tout en étant 400$ moins chère en tarif de lancement. Depuis, l’écart de prix s’est (un peu) resserré, mais la différence de performance demeure.<br /> Wahou 5,3% d’écart en moyenne en rasterisation tout en sachant qu’il a fallu attendre comme d’habitude que les drivers mûrissent et que le DLSS reste bien supérieur au FSR et le Frame Generation d’AMD est encore loin (et le restera), de celui des verts.<br /> Alors ok c’est moins cher hein, mais tu dois accepter que le RayTracing ça le fera moins bien, et que les solutions d’upscaling qui doivent te permettre de faire durer un peu plus longtemps ton GPU seront qualitativement moins performantes.<br /> Perso le choix est vite fait, et les 400€ de différence tu les as vu où ? Sur LDLC une 4080 Super Gygabyte c’est 1219€, et la Gygabyte 7900XTX est à 1179€, soit 40€ de différence….<br /> Ton article lui-même lors de sa sortie ne pointait même pas une différence de 200€.<br /> L’écart de prix ne s’est pas un peu « resserré », il est devenu carrément inexistant.<br /> Et là on compare une XTX avec une 4080 « Super », pas une 4080 de base.<br /> Du coup y’a même pas de réflexion pour 40€ tu prends la 4080 si t’es logique…
pecore
Agalma:<br /> Le FSR est une catastrophe. Tout le monde le sait il suffit de voir les images<br /> Ben non, tout le monde ne le sait pas, ou alors, il va falloir donner des sources qui attestent de cela. Je parle de ma propre expérience et de celles d’autres personnes de mon entourage et elle est positive, tout comme les articles que j’ai lus sur le sujet.<br /> Mais je n’ai pas de console, alors je ne peux pas juger de la qualité des jeux dessus. Je sais en revanche que si on fait un jeu trop gourmand pour la puissance de l’appareil, puis que l’on applique un upscalling très agressif pour le rendre fluide, il y aura perte de qualité, forcement. Mais cela ne sera pas la faute du FSR, il ne peut pas faire des miracles non plus et le DLSS ou le XeSS auraient exactement le même problème.<br /> Je le redis, pour l’instant, je n’ai vu aucun article ou vidéo disant que le FSR est une «&nbsp;catastrophe&nbsp;», je n’ai entendu personne s’en plaindre et je n’ai pas vu non plus d’article disant que Sony développait le PSSR pour palier aux limitations du FSR. Et toi ?
dante0891
Vivement la série des 9000 pour que je puisse profiter pleinement du Path Tracing sans perte d’IPS et en ayant au min les 30IPS stable.<br /> Après j’aime pas l’upscale (DLSS/FSR); je trouve que l’image plus moche et pas nette.<br /> D’ailleurs je préfère jouer en 30IPS qu’en 120IPS avec l’upscale.<br /> Après je fais uniquement du jeu solo. Pas de jeu online (ou très rare) et encore moins des jeux compétitif ^^’
Nmut
Kvn_Jma:<br /> Je suis moi même possesseur d’une RTX 4090, j’ai dans mon entourage 3 joueurs PC qui ne sont pas de gros geeks boutonneux et deux ont également une RTX 4090 et le troisième une 4080.<br /> On est souvent entouré de gens qui ont les mêmes centres d’intérêts et donc les mêmes priorités. Difficile d’extrapoler. D’ailleurs à mon age, je n’ai absolument aucun ami ayant un PC haut de gamme, et même très peu avec un PC permettant de jouer d’ailleurs. <br /> Si on est un peu près de ses sous, le hdg n’est JAMAIS d’un bon rapport qualité / prix. Et je pense quand même que beaucoup de gens ne sont pas prêts à mettre une blinde dans une machine de jeu. Les stats de Steam sont intéressante pour ça. Les grosses configs sont très largement minoritaires.<br /> Kvn_Jma:<br /> 4090 pas hors de portée des joueurs qui veulent se mettre bien en 4K avec du RT et du Full Ultra.<br /> Juste comme ça, donne moi le prix de ta config… La mienne me sert à bosser la journée et à jouer le soir ou le WE. Malgré le besoin de puissance (dev et simulations numériques), j’ai un setup à moins de 1000€ (tout est d’occasion et pas du haut de gamme: 5900x / 6800XT / carte mère basique / alim basique 600W). Je tourne en VR et sur 3 écrans . Il n’y a que les écrans qui soient un peu au dessus, normal je passe en moyenne 12h par jour dessus. Je ne suis pas sûr d’être un cas isolé, tous mes collègues dev indépendant ont des bécanes autour de 1000€ sauf 1 avec un setup à 3500€ (mais je n’ai pas compris pourquoi, il ne me met que 10% de perfs dans la vue en OpenCL CPU + GPU), il a peut être fait une pirouette comptable.<br /> Kvn_Jma:<br /> A sa sortie la RTX 4090 FE c’était 1600€, des gens paient des iphones ce prix là sans trop se poser de question, alors ça fait relativiser la niche.<br /> Certes.<br /> Kvn_Jma:<br /> Ces cartes sont bonnes pour le prestige de la marque et pour ancrer dans la tête des joueurs que les verts c’est les meilleurs (et ça marche)<br /> Là je suis d’accord. Mais est-ce que le jeu en vaut la chandelle pour AMD car il est sûr de ne vendre aucune carte hdg face à NVidia, entre la réputation et le matraquage publicitaire de ce dernier…<br /> Kvn_Jma:<br /> Nvidia marge à mort sur le HDG<br /> Pas directement. La R&amp;D est en grande partie amortie par la gamme pro, ce que ne peut pas encore faire AMD, ils sont encore trop juste en parts de marché ici.<br /> Kvn_Jma:<br /> que c’est une bêtise de ne rien mettre en face d’une 4080<br /> Si elle n’en a pas les moyens… <br /> Et je trouve ça aussi dommage, une bonne concurrence, c’est mieux.
IgorGone
Kvn_Jma:<br /> Alors soit je suis dans un nid et une anomalie, soit les 4080 (du moins) ne sont pas si ne niche que cela et les 4090 pas hors de portée des joueurs qui veulent se mettre bien en 4K avec du RT et du Full Ultra.<br /> Une carte à plus de 1100€ c’est niche, il y a très peu de personnes qui peuvent se permettre de dépenser une telle somme pour un GPU<br /> J’ai largement les moyens pour m’acheter ça mais j’ai préféré prendre une 7900 XT l’année dernière pour 800€ (et je trouvais déjà ça très cher.)<br /> Enfin, les AMD ont des performances inférieures en raytracing mais même chez Nvidia, en dehors des 4080/4090 c’est pas non plus une performance exceptionnelle et ça plombe bien les perds.<br /> Chacun prend la marque qui lui plait mais personnellement, Nvidia qui se fout de ses clients en limitant le DLSS3 uniquement à ses nouveaux modèles, non merci, je ne peux pas supporter.
Voir tous les messages sur le forum
Haut de page

Sur le même sujet