🔴 French Days en direct 🔴 French Days en direct

Les Radeon RX 8000 d'AMD utiliserait de la mémoire vidéo bien plus lente que les GeForce RTX 50

Nerces
Spécialiste Hardware et Gaming
23 avril 2024 à 18h35
8
RDNA 4 sera au cœur des prochaines Radeon RX 8000 © Wccftech
RDNA 4 sera au cœur des prochaines Radeon RX 8000 © Wccftech

Pour sa prochaine génération de cartes graphiques, AMD ambitionne de produire des modèles plus économies, à tout point de vue.

Petit à petit les langues se délient autour des nouvelles générations de cartes graphiques. Après deux ans passés sous le signe des GeForce RTX 40 et Radeon RX 7000, il sera bientôt question de passer la main.

Si les choses se précisent régulièrement du côté de NVIDIA, c'est encore assez flou pour ce que va nous proposer AMD… en dehors du fait que le haut de gamme semble un peu délaissé sur cette prochaine génération.

AMD vise le milieu de gamme

Depuis déjà quelques mois, la question d'une génération moins musclée chez AMD par rapport à NVIDIA se confirme. Bien sûr, cela ne veut pas dire qu'il n'y aura pas de concurrence entre nos deux meilleures ennemies.

Pas de GDDR7 en vue pour les Radeon RX 8000 © Samsung
Pas de GDDR7 en vue pour les Radeon RX 8000 © Samsung

En revanche, si les choses se confirment, il se pourrait donc bien que cette hypothétique GeForce RTX 5090 se retrouve complètement seule sur son segment de marché et même la GeForce RTX 5080 pourrait n'avoir aucune concurrente à sa sortie, « normalement » avant la fin de l'année 2024.

Tout porte effectivement à croire qu'AMD se contente d'une Radeon RX 8800 animée par un GPU Navi 44 alors qu'une RX 8700 (toujours en Navi 44) serait aussi envisagée et que deux modèles à base de Navi 48 verrait ensuite le jour (RX 8600 et RX 8500).

Pas besoin de VRAM en 27 Gbps

Aujourd'hui, c'est un indice supplémentaire de cette orientation « milieu de gamme » d'AMD qui nous parvient à travers des informations à propos du sous-système mémoire des prochaines Radeon.

Cité par nos confrères de VideoCardz, Kepler_L2 est un habitué des petites indiscrétions sur le marché de la carte graphique. Cette fois, il est question de la mémoire embarquée sur l'ensemble de la gamme RDNA4 : de la GDDR6 à « seulement » 18 Gbps. Cette précision arrive quelques semaines après une rumeur évoquant de la GDDR7 en 28 Gbps pour la GeForce RTX 5090.

Une distinction notable entre ce qu'AMD envisage pour sa Radeon RX 8800 et ce que NVIDIA prépare pour sa GeForce RTX 5090. Cela dit, ce n'est pas une surprise dans la mesure où il a déjà été évoqué que la RX 8800 viendrait se caler entre les RX 7900 XTX et RX 7900 GRE actuelles tout en étant bien plus efficaces que ses grandes sœurs.

Bien plus que les meilleures performances, AMD cherche avec ses Radeon RX 8800 à obtenir des cartes graphiques plus économiques : elles devront être moins onéreuses à produire et plus économes en énergie que la génération précédente. Pas forcément un mauvais calcul.

Source : VideoCardz

Nerces

Spécialiste Hardware et Gaming

Spécialiste Hardware et Gaming

Tombé dans le jeu vidéo à une époque où il fallait une belle imagination pour voir ici un match de foot, là un combat de tanks dans ces quelques barres représentées à l'écran, j'ai suivi toutes les év...

Lire d'autres articles

Tombé dans le jeu vidéo à une époque où il fallait une belle imagination pour voir ici un match de foot, là un combat de tanks dans ces quelques barres représentées à l'écran, j'ai suivi toutes les évolutions depuis quarante ans. Fidèle du PC, mais adepte de tous les genres, je n'ai du mal qu'avec les JRPG. Sinon, de la stratégie tour par tour la plus aride au FPS le plus spectaculaire en passant par les simulations sportives ou les jeux musicaux, je me fais à tout... avec une préférence pour la gestion et les jeux combinant plusieurs styles. Mon panthéon du jeu vidéo se composerait de trois séries : Elite, Civilization et Max Payne.

Lire d'autres articles
Vous êtes un utilisateur de Google Actualités ou de WhatsApp ? Suivez-nous pour ne rien rater de l'actu tech !
google-news

A découvrir en vidéo

Rejoignez la communauté Clubic S'inscrire

Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.

S'inscrire

Commentaires (8)

marc6310
Voilà qui me semble bien plus intelligent <br /> Aux moteurs graphiques et aux devs (la faute aux studios et éditeurs) maintenant d’arrêter de pondre de la merde qui ne justifient pas de telles puissances.
Pernel
On est d’accord, mais tant qu’Nvidia ne décide pas de faire pareil (spoiler, ils ne le feront pas), ça ne changera pas, AMD a peu d’impact sur les GPU (par rapport à Nvidia).
pecore
Je suis d’accord avec @marc6310 : la réponse viendra des studios.<br /> Si ces derniers préfèrent continuer à perdre des clients potentiels en faisant des jeux qui tournent sur une minorité de configurations (ex: Alan Wake 2, Cyberpunk 2077) et ce, afin d’encourager la course à la puissance, alors oui, Nvidia continuera à nous inonder de ses cartes hors de prix.<br /> Si au contraire on nous donne de jeux bien optimisés et beaux même sans l’emploi de techs trop gourmandes en puissance de calcul (ex : Lies of P, Hogwart’s Legacy), alors ce seront les cartes entrées et milieu de game d’AMD qui seront plébiscitées.<br /> L’avenir nous dira, mais si j’étais les devs, je regarderais la facilité de certains jeux à dégager des bénéfices et la comparerait à la difficulté de certains autres à le faire.
Pernel
Oui mais tant que Nvidia (qui est largement leader et plus influent) continuera de tout miser sur des GPU toujours plus gros, consommateur, puissant etc, alors les studios ne changeront pas. Déjà qu’ils ne faisaient pas d’effort avant cette course à la surpuissance, alors si Nvidia continu, les devs ne changeront pas. Sans parler du fait que si les jeux sont rarement opti, c’est aussi en grande partie à cause des éditeurs qui veulent toujours pousser à sortir les jeux le plus vite possible, donc pas le temps de debug correctement et pas le temps d’optimiser.
pecore
Tu as assurément raison quand tu parles de l’influence écrasante d’Nvidia qui fausse la donne. On arrive à discerner les lignes d’influence qui font que certains insiders n’hésitent plus à appeler Nvidia le «&nbsp;cartel du jeu vidéo&nbsp;».<br /> Mais certains éléments me donnent tout de même quelque espoir de changement. D’abord, quoi qu’on en dise, Nvidia recule lentement, mais surement dans les statistiques Steam, signe que le vent commence à tourner. Ensuite, certains studios, en particulier ceux exerçant hors de l’Amérique du Nord, semblent moins soumis aux dictats des grands groupes d’influence et le succès de leurs productions pourrait bien donner des envies d’émancipation à d’autres studios.<br /> Je reste prudent, je ne veux pas faire preuve d’un optimisme béat, mais j’ai l’impression que certains signaux sont encourageants.
sebstein
Votre message est totalement antinomique : si les «&nbsp;devs&nbsp;» (ce sont les studios qui font des choix, pas les devs) cherchaient la facilité pour dégager des bénéfices, ils ne produiraient pas des vitrines technologiques qui ne peuvent s’exécuter sur un maximum de pc.
pecore
Je n’ai pas parlé de facilité, je ne crois pas l’avoir écrit une seule fois dans ce topic, avant ce post.<br /> Je vais donc préciser mon propos : certains studios préfèrent optimiser leur jeu pour le rendre accessible à plus de machines, quitte à ne pas employer certaines technologies à la mode. Ce n’est donc en rien une «&nbsp;facilité&nbsp;» car les studios concernés doivent compenser autrement l’absence de ces technologies pour que leur jeu n’ait pas l’air dépassé et certains y arrivent mieux que d’autres.<br /> Quant à savoir qui des devs ou des studios décident de ça, je ne m’y connais pas assez pour argumenter.
brice_wernet
NVidia mise sur l’IA et les datacenters. Les GPU qu’ils donnent au grand public, c’est un peu les restes… L’architecture que propose NVidia est orientée calcul (IA, RT), ils veulent maintenir leur leadership là-dessus.<br /> L’architecture d’AMD (qui fait des APU très corrects avec de la RAM «&nbsp;normale&nbsp;») est plus orientée grand public/ jeu.<br /> Quand aux optimisations des jeux, elles sont encore en cours: les dev ingurgitent encore les montagnes de contenus nécessaires actuellement dans un jeu. C’est complexe: pour faire un jeu qui fonctionne en 4K, il faut des textures, des polygones, sinon ça fait fade et vide. Mais du coup c’est consommateur et ça crée des charges de calcul en pointe conséquentes et difficiles à prédire.
Pernel
Oui il y a quelques bons élèves qui donnent de l’espoir, mais malheureusement c’est marginal.
Pernel
brice_wernet:<br /> NVidia mise sur l’IA et les datacenters. Les GPU qu’ils donnent au grand public, c’est un peu les restes… L’architecture que propose NVidia est orientée calcul (IA, RT), ils veulent maintenir leur leadership là-dessus.<br /> Les restes ? Non pas vraiment, pas plus qu’avant. Les xx90 ne sont clairement pas des restes mais des Titans renommés, donc des cartes «&nbsp;pro&nbsp;» voir «&nbsp;semi pro&nbsp;».<br /> brice_wernet:<br /> Quand aux optimisations des jeux, elles sont encore en cours: les dev ingurgitent encore les montagnes de contenus nécessaires actuellement dans un jeu. C’est complexe: pour faire un jeu qui fonctionne en 4K, il faut des textures, des polygones, sinon ça fait fade et vide. Mais du coup c’est consommateur et ça crée des charges de calcul en pointe conséquentes et difficiles à prédire.<br /> Je sais comment ça fonctionne, mais ça ne change en rien le fait que la grande majorité ne fait aucun effort d’optimisation. J’ai des jeux qui sont pas très beau dans ma biblio et qui ne sont pas vraiment fluide (j’ai pourtant une 3090, donc pas trop mal encore), ce qui n’a pas de sens. Certains devs sont consciencieux (et moins pressés par les éditeurs) et optimisent très bien leurs jeux, mais c’est assez rare. Quand on voit le nombre de gens avec de très bonnes machines se plaindre des perfs des jeux, c’est pas uniquement de la faute de l’utilisateur, quand tu mets plus de 4000 balles dans une machine c’est pas pour faire des concessions.
Blackalf
Pernel:<br /> Oui mais tant que Nvidia (qui est largement leader et plus influent) continuera de tout miser sur des GPU toujours plus gros, consommateur, puissant etc, alors les studios ne changeront pas. Déjà qu’ils ne faisaient pas d’effort avant cette course à la surpuissance, alors si Nvidia continu, les devs ne changeront pas.<br /> Et pourtant, ils devraient, parce qu’il peut se passer deux choses : que les possesseurs de cartes AMD (puisque la société semble se détourner des modèles haut de gamme) achètent moins de jeux. Et que le prix des cartes Nvidia montant toujours plus haut, pas mal de gamers ne pourront plus suivre. Dans les deux cas, ça signifierait moins de ventes pour les studios de développement. ^^
Pernel
Absolument, mais bon pour le moment et tant qu’NVidia est largement «&nbsp;dominant&nbsp;» et que les éditeurs veulent la rentabilité à tout pris, ça ne change pas. On espère tous que les jeux tournent mieux (coucou Ubisoft, et consorts), qu’ils arrêtent de coûter de plus en plus cher et avec de plus en plus de DLC payants, et que les GPU redeviennent accessibles (on se rappel le temps de la 1080Ti à 700 ou 800€ en MSRP, la bonne époque).
pecore
Oui, le prix aberrant de production des jeux fait partie intégrante du problème. Il oblige les éditeurs à prendre des partenariats pour financer ces productions, partenariats qui viennent toujours avec une contrepartie et/ou un fil à la patte.<br /> Le problème, c’est que ces obligations tendent à impacter les ventes et à augmenter les couts de productions, ce qui rend le jeu plus difficile à rentabiliser, ce qui entraine des difficultés financières pour l’éditeur qui doit toujours plus dépendre de ses partenaires financiers et ainsi de suite.<br /> Comme plusieurs fois par le passé, le marché se régulera de lui-même, mais au prix de la disparition de studios, de milliers d’emplois et de nombreuses franchises très appréciés.
brice_wernet
Forcément après quelques années à regarder des jeux tourner en 200FPS, on di que ceux qui tournent à 40-60 ne sont pas optimisés. FAUX. Non optimisés, ils seraient pires<br /> Faire confiance à des gens qui disent avoir payé des machines 4000€ qui rament… Ils ont payé 4000€ parce qu’ils le veulent bien. Quand à ramer, il faut voir les conditions: 4K, RT à fond et 40-50FPS. Ben oui, c’est le prix.<br /> Dans la communauté des gamers, ce ne sont pas ceux qui font le plus de bruit qui savent le mieux monter des machines. Ceux qui activent toutes les options ne se rendent pas compte qu’ils se sabordent eux-mêmes: utiliser un RAID par exemple peut activer des options de la CM ou de Windows qui vont induire des traitement bloquants. Je dépanne rarement les gamers, ils n’écoutent pas.<br /> Il y a toujours eu des jeux gourmands qui proposaient l’expérience suivante «&nbsp;en avance&nbsp;» (et aussi des jeux raté, c’est vrai). Doom, Unreal étaient difficiles à faire tourner «&nbsp;Day1&nbsp;» sans faire énormément de concessions qui diminuaient largement le plaisir de jeu. Dire qu’ils n’étaient pas optimisés est un peu arrogant je trouve.<br />
Pernel
1- La majorité des gens n’a jamais joué à plus de 100FPS. Et dire que c’est FAUX est absurde et est un non sens. Un jeu moche qui tourne mal est un jeu mal optimisé. Un jeu beau qui tourne mal sur un config moyenne c’est logique, qu’il tourne mal sur le matos le plus puissant ne l’est pas.<br /> 2- Je fait confiance à mon expérience, je joue en UWQHD, une grande partie de mes jeux tournent a fond à 120FPS, mais pour certains je me limite au High et ils ne tiennent pas forcément 60FPS, sans RT, sans 4K, et c’est donc pas normal.<br /> 3-Jamais dit le contraire… de nos jours j’ai jamais vu un gamer avec un RAID, ça n’apporte rien et ça coûte cher.<br /> 4- On en revient à mon point 1, qu’un «&nbsp;Crysis&nbsp;» rame sur une config moyenne c’est envisageable, mais qu’il ne tourne sur aucune machine de son époque est ridicule.<br /> Aucun rapport avec de l’arrogance, pourquoi pas du mépris pendant que tu y es ?
brice_wernet
Crysis était difficile à faire tourner à son époque. Comme quake 3. Ou Doom 3.<br /> Le fait qu’un jeu ait du mal n’est pas forcément lié à une mauvaise optimisation.<br /> Par ailleurs, le fait qu’on trouve un jeu moche est subjectif.<br /> Oui, on peut avoir sur ordi une version qui aimerait que les ordis aient les capacités de la PS5 (et certains ordis l’ont) concernant l’alimentation directe de la CG depuis le SSD.<br /> J’ai bien entendu la polémique sur le jeu Harry Potter, mais vu qu’il a une version sur switch, j’imagine qu’il est possible de le faire tourner sur PC en limitant les graphismes?<br /> Pareil pour Alan Wake 2, à priori il tourne sur des portables assez classique du moment que la CG est une RTX…<br /> Ensuite, cela fait partie de la promotion du jeu. Qu’il ne tourne pas sur toutes les configs rend le jeu plus intéressant commercialement. Ca en fait un «&nbsp;must&nbsp;», un jeu «&nbsp;novateur&nbsp;».<br /> Dans tous les cas, il y a plus d’heures de jeu sur candy crush et les jeux de carte comme earthstone que sur les AAA. Et c’est de plus en plus marqué…<br /> Ca doit peser aussi énormément dans le budget de dev, déjà qu’il faut 4-6ans de conception/dev pour un AAA (avec 40 à 300pers dessus selon les moments), ça empire avec la 4K et le RT niveau mise au point, et les recettes baissent et la priorité se réoriente…<br /> Optimiser un jeu, le tester sous toutes ses coutures et dans tous les cas, c’est juste économiquement impossible. Et ça fait des années! Du coup, autant livrer le jeu, récolter de l’argent et écouter les retours pour optimiser ce qui fait le plus de bruit.<br /> Si en tant que client je ne l’admet pas, pragmatiquement parlant je le conçoit complètement.<br /> Mais je reconnais que j’avais fortement apprécié le moteur de borderlands 2 pour son mode «&nbsp;adaptatif&nbsp;» 22-62 FPS lissées: on pouvait jouer sur Intel HD comme sur une CG dédiée sans chercher dans des tonnes d’options. Ca c’était la classe.<br /> (J’ai pu finir Unreal 1 environ 2 ou 3 ans après l’avoir acheté - le temps d’avoir une machine qui le fait tourner suffisamment bien et que les bugs soient patchés)
Pernel
brice_wernet:<br /> Le fait qu’un jeu ait du mal n’est pas forcément lié à une mauvaise optimisation.<br /> J’ai pas dit le contraire…<br /> brice_wernet:<br /> Par ailleurs, le fait qu’on trouve un jeu moche est subjectif.<br /> C’est pas la question.<br /> brice_wernet:<br /> Oui, on peut avoir sur ordi une version qui aimerait que les ordis aient les capacités de la PS5 (et certains ordis l’ont) concernant l’alimentation directe de la CG depuis le SSD.<br /> C’est pas la question.<br /> brice_wernet:<br /> J’ai bien entendu la polémique sur le jeu Harry Potter, mais vu qu’il a une version sur switch, j’imagine qu’il est possible de le faire tourner sur PC en limitant les graphismes?<br /> Pareil pour Alan Wake 2, à priori il tourne sur des portables assez classique du moment que la CG est une RTX…<br /> Encore hors sujet.<br /> brice_wernet:<br /> Ensuite, cela fait partie de la promotion du jeu. Qu’il ne tourne pas sur toutes les configs rend le jeu plus intéressant commercialement. Ca en fait un « must », un jeu « novateur ».<br /> Dans tous les cas, il y a plus d’heures de jeu sur candy crush et les jeux de carte comme earthstone que sur les AAA. Et c’est de plus en plus marqué…<br /> Toujours pas.<br /> brice_wernet:<br /> Optimiser un jeu, le tester sous toutes ses coutures et dans tous les cas, c’est juste économiquement impossible.<br /> C’est tellement impossible que certains le font…<br /> brice_wernet:<br /> Si en tant que client je ne l’admet pas, pragmatiquement parlant je le conçoit complètement.<br /> euh lol<br /> Merci pour cet exemple de contradiction.
Voir tous les messages sur le forum
Haut de page

Sur le même sujet