Les GeForce RTX série 4000, de la prochaine génération, gravées avec le procédé 5 nm de TSMC

Nerces
Spécialiste Hardware et Gaming
30 novembre 2021 à 11h15
52
© NVIDIA
© NVIDIA

Les futures cartes graphiques NVIDIA et AMD devraient exploiter le même processus de gravure du même fondeur.

L'information n'est pas totalement nouvelle, et plusieurs rumeurs avaient déjà fait état d'un possible changement de fournisseur pour NVIDIA et sa future génération de cartes graphiques, les GeForce RTX série 4000.

Cap sur le 5 nm de TSMC

Cette fois, nos confrères de WCCFTech évoquent une source interne à TSMC pour appuyer leurs précisions. NVIDIA aurait donc bel et bien dans l'idée de troquer son partenariat avec Samsung (qui fabrique les GPU RTX série 3000) contre un accord avec TSMC.

C'est donc la Taiwan Semiconductor Manufacturing Company qui devrait se charger de la production des GPU de génération Ada Lovelace, nom de code donné par NVIDIA aux GeForce RTX série 4000. TSMC emploierait pour cette génération son processus de gravure 5 nm alors que les RTX série 3000 sont gravées en 8 nm par Samsung.

© WCCFTech
© WCCFTech

Une puissance de calcul de 90 téraflops ?

Contrairement à ce que certains avançaient par le passé, l'architecture Ada Lovelace ne serait pas MCM (Multi-Chip Module). Ce type de design sera employé par AMD sur la Radeon RX série 7000. Il s'agit d'agréger plusieurs modules GPU au sein d'une puce, ce qui s'oppose à la conception plus figée du design dite monolithique.

NVIDIA devrait en rester au design monolithique pour les RTX série 4000, mais il est tout de même question de nombreuses avancées. Ainsi, le GPU AD102 tourneraient à 2,5 GHz en mode boost et intégreraient pas moins de 18 432 cœurs CUDA : un chiffre à comparer aux 10 752 du meilleur GPU Ampere actuellement disponible et aux 4 608 du meilleur GPU Turing.

On parle de 144 streaming multiprocessor (contre 84 et 72), de 72 texture processing clusters (contre 42 et 36) et, enfin, de 12 graphics processing clusters (contre 7 et 6). Au global, il est ainsi question d'une puissance de 90 téraflops quand Ampere se contentait de 37,6 et Turing, de 16,1, soit une progression impressionnante de plus de 150 %.

Côté mémoire, les choses restent plus « sages », et NVIDIA conserverait la GDDR6X sur une interface 384 bits. Il ne devrait pas non plus être question d'augmenter la quantité embarquée. On parle ainsi toujours de 24 Go. Enfin, le TGP de la carte graphique devrait logiquement progresser encore un peu, avec apparemment une fourchette de 450 à 650 W.

Source : WCCFTech

Vous êtes un utilisateur de Google Actualités ou de WhatsApp ? Suivez-nous pour ne rien rater de l'actu tech !
google-news

A découvrir en vidéo

Haut de page

Sur le même sujet

Rejoignez la communauté Clubic S'inscrire

Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.

S'inscrire

Commentaires (52)

Tritri54
Tant de puissance pour des jeux si mal optimisés
DrJones2
Et qu’en sera t’il de la disponibilité et des prix, car nous savons tous que depuis des mois la série 3000 est pratiquement introuvable et lorsque c’est possible c’est à des prix inabordables pour les cartes graphiques seul. La pénurie et les tarifs exorbitants seront ils réglés avec cette série 4000 produite par TSMC ?
Yorgmald
Selon certaines rumeurs les tarifs ne vont pas baisser, ils feront même l’inverse avec une bonne grosse augmentation.
cooper
En réalité personne ne peut aborder le futur, le COVID est toujours présent, et il peut à nouveau faire baisser les stocks. Il faut être patient… Dans tous les cas, les jeux sorties sont en majorités très mal optimisés ou non fini, inutile d’aller acheter une 3000 hors de prix.
_Reg24
Déjà que les 3000 sont introuvables ou à des prix démentiel, ça s’annonce (très) mal pour la suite…
_Reg24
Clairement, l’incompétence des dev est compensée par la puissance du matos.
zeebix
Perso j’abandonne l’idée d’une nouvelle machine pour le moment, je me contente de jouer via la Cloud. et vu ce que donne le dernier Forza bah ça me suffit amplement.
max6
Reste plus qu’à espérer que si l’indisponibilité des cartes continue ils essaye de s’améliorer pour continuer à vendre. Çà va je sort mais on peut toujours essayer de rester optimiste.
Yves64250
Une alimentation de 650 W sera suffisante?(avec le processeur,2 disques mécaniques)
jeanlain
Lol, ça se base sur quoi cette affirmation ?
THIERRY_TRETOLA
que des conneries ces cartes graphiques…et leur prix et penurie, je suis encore en hd 7970 et quad 9550 , lga 775 ssd et 8go de mem et tout va bien en jeu ! !.. la vaste blague…
mamide
18432 Coeurs CUDA ??? l’optimisation est morte chez Nvidia ou quoi ?? jadis avec le même nombre de coeurs on a 50% de puissance en plus <br /> No comment au sujet de la consommation … un GPU de 450W-600W :o<br /> Yves64250:<br /> Une alimentation de 650 W sera suffisante?(avec le processeur,2 disques mécaniques)<br /> Est-ce une blague ? la carte en elle même consomme 600W si les leaks sont vrais alors si tu ajoutes un CPU à 200W-300W (oui il faut un i9 minimum pour accompagner une RTX 4090) alors il te faudra une alim à 1000W minimum (faut bien laisser un peu de marge à l’alimentation car utiliser une alim à plus de 90% de sa capacité c’est pas bon sur la durée).
mamide
jeanlain:<br /> Lol, ça se base sur quoi cette affirmation ?<br /> il a raison … au lieu d’optimiser les jeux et améliorer les architectures on augmente les coeurs et transistors ce qui fait exploser la consommation et tout ça pourquoi ?? pour amortir l’incompétence des développeurs !<br /> Les jeux sortis ces 5 dernières années la plus grosse puissance CPU sert à faire tourner la M**** de Denuvo et pour le GPU à compenser la mauvaise optimisation !
pecore
Donc Nvidia et AMD vont devoir se partager les miettes de lignes de production qu’Apple aura bien voulu leur laisser. Il suffira donc à Nvidia, qui est beaucoup plus riche, de payer plus cher pour avoir plus de lignes et AMD sera asphyxié, non ?
Francistrus
Vu la fourchette indiquée (450/650W), ce sera juste suffisant pour alimenter la carte graphique uniquement ^^ Faudra tabler sur du 850/1000W (si la consommation en pleine charge est de 600W et plus) pour être tranquille
Pas_de_Bol
150 W pour le cpu, 500 W pour le GPU, de quoi bien se réchauffer les pieds pendant l’hiver.<br /> Il faut un watercooling qui ferait passer l’eau dans une espèce de coussin sur lequel poser ses petons.<br /> Mais punaise… avec toutes les avancées R&amp;D et la finesse de gravure, ils ne peuvent pas nous pondre des GPU qui ne nécessiteraient pas de connecteurs PCIe supplémentaire ?
Francistrus
Bientôt il faudra un connecteur ATX 24 broches pour la CM et un autre pour la carte graphique ^^
Popoulo
Faudra surtout 1 bloc d’alim pour chacun d’eux lol.
jeanlain
Vous êtes rigolo a brandir l’incompétence des développeurs, mais vous y connaissez quelque chose ?<br /> D’autant que désolé, mais tu racontes n’importe quoi…<br /> " au lieu d’optimiser les jeux et améliorer les architectures on augmente les coeurs et transistors" ==&gt; c’est un peu le principe même de l’informatique que d’augmenter les capacités de calcul, non ? T’irais te plaindre que ton os est mal optimisé parce qu’il ne pourrait pas tourner sur Intel 4004 ? L’optimisation ça a ses limites, et au bout d’un moment si on veut augmenter le résultat, faut forcément augmenter les capacités de calculs, et donc les «&nbsp;coeurs et transistors&nbsp;».<br /> «&nbsp;ce qui fait exploser la consommation&nbsp;» ==&gt; faux aussi, seules les cartes très haut de gamme ont une conso en augmentation (et je dis bien augmentation, pas explosion). Les cartes milieu de gamme c’est toujours plus ou moins les même conso depuis 10ans…<br /> «&nbsp;pour amortir l’incompétence des développeurs&nbsp;» ==&gt; LOL<br /> «&nbsp;Les jeux sortis ces 5 dernières années&nbsp;» ==&gt; mauvais exemple, depuis 5 ans les jeux demandent moins d’augmentation de capacité. Un pc d’il y a 5 ans peut faire tourner des jeux actuels. Ca n’était pas vrai il ya 10 ans.<br /> " la plus grosse puissance CPU sert à faire tourner la M**** de Denuvo " ==&gt; autant je crache sur deuvo, autant tu dis n’importe quoi, la part de cpu est dérisoire<br /> Bref…
bafue
On ne joue juste pas au même jeux …Ma ps1 fait encore tourné crach bandicoot dingue non !!
Popoulo
Justement, l’optimisation c’est surtout tirer le meilleur parti du matos existant et ne pas attendre sur la gen suivante pour se dire «&nbsp;bah, avec une RTX 4000 on gagnera 15fps, ça nous en fera 45&nbsp;».<br /> L’opti est présente sur console. Quasi inexistante sur PC.<br /> «&nbsp;depuis 5 ans les jeux demandent moins d’augmentation de capacité&nbsp;» : je doute que cela soit vrai avec le RT par exemple, bien au contraire.<br /> Donc oui, les dev - correction - les studios s’en battent les flancs. Le matos vient à leur rescousse. Et maintenant le DLSS et autre FSR.<br /> Après, le dev fait ce qu’on lui dit, on peut facilement comprendre cela.
mart666
Vont-ils en fabriquer plus de 10 exemplaires cette fois-ci ?<br /> Aussi, si les 3090 sont 5000$, j’imagine que les 4090 vont se vendre au moins 7000$ ?
Sans_Plot
En meme temps on est passé de 1080P 60fps à 2K ou 4K 144FPS sur PC, Donc forcement, ça nécessite beaucoup de puissance…<br /> Donc non, les devs ne s’en battent pas les flancs, ils bossent comme tout le monde… et si les gens étaient pas contents ils acheteraient pas
jeanlain
Franchement, tous ceux qui râlent sur l’optimisation et l’incompétence des dev, vous devriez postuler dans une boite de JV.<br /> Vu que vous avez l’air de mieux savoir qu’eux comment ils devraient bosser, vous pourrez former ces fainéants de développeurs, et leur montrer comment on fait tourner à 120fps un jeu vidéo récent en 4K + ray tracing sur un raspberry pi
sebstein
T’es au courant qu’on en est plus au fil de fer ?
fox-idcom
@THIERRY TRETOLA : oui enfin tout dépends les jeux heinh…<br /> tu fais certainement pas tourner le dernier FH5 avec ça (et FH5 est plutôt bien optimisé en plus…)<br /> et je parle même des BFV , BF2042 et autre CoD etc etc…<br /> alors oui ca fait tourner des jeux d’il y a quelques années probablement mais certainement les derniers gros titres.<br /> j’ai encore un i7 3770k sur ma deuxième bécane (donc bien plus puissant qu’un quad q9550) et il devient limite sur pas mal de jeux malheureusement.
fox-idcom
+1 avec les derniers commentaires : ne pas oublier qu’aux dev , on leur impose des dates et du coup , bah ils font ce qu’ils peuvent pour sortir les jeux sans trop de casses.<br /> Et effectivement , on n’est plus au 1080p 60 fps maintenant , sur PC , bcp ont gouté au 144hz et plus , sur des grosses rés genre 1440p et + , et donc il faut de la puissance pour faire tourner tout ça.
THIERRY_TRETOLA
tu as oublié qu’il faut windows 10 pour ce genre de jeu de maintenant , je suis encore sur le w7 (bah jy suis bien) , je joue à titanfall 1 depuis pas mal d’années &lt;3 c’est un super jeu
mamide
jeanlain:<br /> Vous êtes rigolo a brandir l’incompétence des développeurs, mais vous y connaissez quelque chose ?<br /> Quand on est à court d’arguments on sort le joker «&nbsp;attaques personnelles&nbsp;» … en tous cas ce qui est sûr c’est que tu peux connaitre si je connais quelque chose au développement de jeux !<br /> Sinon Je savais pas qu’il fallait être développeur pour savoir qu’un jeu est mal optimisé et plein de bugs !!!<br /> GTA San Andreas avec une RTX 3090 qui tourne moins bien que GTA V avec une RTX 3090 … et pire GTA 3 remastered avec une RTX 3090 et un CPU 12 ème qui a des drop à moins de 60 FPS avec un GPU à 99% … j’ai besoin d’être développeur pour savoir que ce jeu est mal optimisé ??? et consomme des ressources inutilement avec des graphismes de M***** !<br /> Désolé mais tu es comme tous ces Trolls qui encouragent l’achat de CG à 2000€ ou avoir des PC très récents et ils trouvent ça tout à fait normal <br /> jeanlain:<br /> " la plus grosse puissance CPU sert à faire tourner la M**** de Denuvo " ==&gt; autant je crache sur deuvo, autant tu dis n’importe quoi, la part de cpu est dérisoire<br /> La part du CPU est dérisoire avec Denuvo ??? mec y a des jeux où Denuvo consomme 30-40% du CPU à lui tout et si tu sais pas ça alors c’est que tu es très mal informé et que tu n’es pas à jour.<br /> jeanlain:<br /> « Les jeux sortis ces 5 dernières années » ==&gt; mauvais exemple, depuis 5 ans les jeux demandent moins d’augmentation de capacité. Un pc d’il y a 5 ans peut faire tourner des jeux actuels. Ca n’était pas vrai il ya 10 ans.<br /> Je te parle pas du fait de faire tourner un jeu mais du fait que beaucoup de ressources servent à faire tourner Denuvo et d’autres couches de protection comme VMProtect sur les titres d’Ubisoft !<br /> Ne va pas me dire qu’Assassin’s Creed Origins, Odyssey ou même Valhalla n’est pas un bouffeur de CPU car c’est l’un des jeux qui met à plat beaucoup de CPUs récents !<br /> jeanlain:<br /> D’autant que désolé, mais tu racontes n’importe quoi…<br /> Je te retourne le compliment !
mamide
sebstein:<br /> T’es au courant qu’on en est plus au fil de fer ?<br /> Ta qu’à dire ça à Nvidia et sa CG à 600 Watts !!! non mais sérieux ça me fait rager les mecs qui défendent la surconsommation des composants !<br /> Sans_Plot:<br /> Donc non, les devs ne s’en battent pas les flancs, ils bossent comme tout le monde… et si les gens étaient pas contents ils acheteraient pas<br /> Ta qu’à dire ça aux gens qui ont acheté Battlefield 2042 ils ont pas acheté le jeu ils ont acheté le nom <br /> Ta joué au dernier Battlefield 2042 ? il fait pas honneur à Dice et à la série toute entière … des bugs astronomiques on dirait un jeu en Alpha …<br /> Le problème c’est que les gens achètent des jeux avant même de savoir à quoi ressemble le jeu et le fait qu’ils soient contents ou pas ne reflètent pas la qualité d’un jeu !<br /> Aimer ou ne pas aimer c’est une question de goût mais personne n’aime et ne veut un jeu buggué à mort !!!
mamide
jeanlain:<br /> Vu que vous avez l’air de mieux savoir qu’eux comment ils devraient bosser, vous pourrez former ces fainéants de développeurs, et leur montrer comment on fait tourner à 120fps un jeu vidéo récent en 4K + ray tracing sur un raspberry pi<br /> Arrête de faire ton troll … GTA 3 qui tourne à 60 FPS en 4K sur une RTX 3090 avec un i9 12900K … y a un problème là !!! et même un enfant dira que ce jeu est mal optimisé !!<br /> La presse vidéoludique qui juge les jeux vidéo … tu crois que ce sont des développeurs ? faut arrêter le délire là !!!<br /> Les meilleurs pilotes de voitures de course ce sont des mécaniciens ?? et ceux qui fabriquent des voitures ça ne fait pas d’eux des pilotes y a même ceux qui ne savent même pas conduire une voiture (ou même un vélo).<br /> Encore une fois arrête de troller !
jeanlain
Où t’as vu une attaque personnelle ? Je te demande juste si tu connais quelques chose au boulot de développeur de JV ? Si on veut affirmer que tous les développeurs sont de gros fainéants qui n’optimisent rien, faut un minimum de connaissances sur le sujet pour pouvoir l’expliquer…<br /> Sans vouloir rajouter de l’huile sur le feu, tu m’accuses de manquer d’arguments, mais j’attends encore les tiens…<br /> Parce que là depuis tout à l’heure tu craches sur tous les dev de JV, mais pour l’instant tu n’as donné que l’exemple du remaster de GTA 3.<br /> Forcément que sur des exceptions tu peux trouver du boulot mal fait. Sauf que si tu veux juger du boulot «&nbsp;des développeurs&nbsp;», dans leur ensemble, ben tu juges ce qu’ils produisent dans leur ensemble, et pas les pires.<br /> Et de toutes façons GTA 3 ne demande pas une RTX 3090, faut arrêter… J’y joue tout à fond avec ma 2060 (du coup me comparer à des trolls qui encouragent l’achat de de CG à 2k€, ça me fait doucement rigoler :o) …<br /> Pareil pour Denuvo, ton truc de 30/40% c’est un exemple spécifique, qui au passage date de 2017, sur un jeu spécifique, où le titre de l’article en question commence par «&nbsp;rumours&nbsp;» et sans aucun benchmark. On a vu plus fiable comme source…<br /> Histoire de trouver des sources plus sérieuses avec une vrai methodo de tests : Tested: Denuvo DRM has no performance impact on Final Fantasy 15 | PC Gamer<br /> Aucun impact CPU ou sur les fps.<br /> Après soyons clairs, y’a d’autres problèmes avec Denuvo, et ça reste une saloperie. Mais l’accuser de consommer jusqu’à 40% du cpu, c’est une fake news niveau Donald Trump…<br /> Bref, on ne sera pas d’accord, mais respecte au moins le boulot des développeurs, et essaie de comprendre leurs problématiques avant de les accuser de tous saloper leur boulot…
sebstein
mamide:<br /> Ta qu’à dire ça à Nvidia et sa CG à 600 Watts !!! non mais sérieux ça me fait rager les mecs qui défendent la surconsommation des composants !<br /> D’où je défend la surconsommation des composants ?<br /> mamide:<br /> il a raison … au lieu d’optimiser les jeux et améliorer les architectures on augmente les coeurs et transistors ce qui fait exploser la consommation et tout ça pourquoi ?? pour amortir l’incompétence des développeurs !<br /> Puisque les jeux évoluent et demandent toujours plus de puissance (non pas parce qu’ils sont mal optimisés [même si certains peuvent évidement l’être], mais parce qu’ils nécessitent toujours plus de triangles et d’effets), il faut bien que le matériel derrière évolue… et l’optimisation des architectures, ça fonctionne un temps, mais ça a aussi ses limites… si tu as 2 transistors, tu auras beau optimiser ce que tu veux, tu va bien finir par être coincé à un moment, donc, oui, il faut bien régulièrement augmenter le nombre de transistors. C’est simplement mathématique.<br /> Tu me fais dire ce que je n’ai pas dit, là, au sujet de la consommation… ce bond de consommation me choque tout autant.
EnLighter
de 450 à 650 W.<br /> Punaise, je vais finir par opter pour un watercooling custom pour mes prochaines machines …<br /> Tant qu’à faire j’installerai aussi une mini centrale nucléaire derrière afin d’être eco compatible.
Chamalol
Tu as l’air de très bien connaître le domaine et le secteur.<br /> Je suis sûr que des milliers de personnes seraient prêtes à t écouter leur expliquer comme faire leur travail
_Reg24
C’est plus un constat qu’une critique, mais à force de vouloir sortir des jeux le plus vite possible, on se retrouve avec des truc dans des état inadmissible (coucou CP2077 sur PS4 / One).<br /> Faire bine, ils savent le faire, mais il faut qu’ils en ayant le temps / les moyens.
jeanlain
Bah non, ça reste une critique. Le constat c’est que les jeux n’ont jamais été aussi bien optimisés que ces dernières années. Un PC vieux de 5 ans peut continuer à faire tourner des jeux récents (pas tout à fond hein, forcément). Mais il y a quelques années c’était impensable.<br /> Ca montre bien que les jeux sont mieux optimisés qu’à l’époque !<br /> Le temps et les moyens, en soit, ça veut rien dire. Ca dépend de là où se situe curseur. CP2077 est un des jeux ayant bénéficié le plus de moyens et de temps. Sauf qu’ils ont placé la barre très haut.<br /> Et justement, vouloir sortir ce jeu sur PS4/One était une connerie, parce que les capacités matérielles de ces consoles ne le permettent pas dans de bonnes conditions. Y’a un moment tu peux optimiser ce que tu veux, y passer le temps et les moyens que tu veux, tu feras pas d’un âne un cheval de course…<br /> Et encore une fois, faut maitriser un minimum me sujet. Optimiser un jeu c’est comme corriger des bugs, c’est logarithmique. Au début, en peu de temps les dev peuvent corriger plein de bugs et bien optimiser, mais arrive rapidement un moment où il faut passer un temps de malade pour corriger un bug ou gagner 1 fps. Bref, y’a une limite à l’optimisation…
StratDesign_1_1
Chaque génération de «&nbsp;jeux/gpu/cpu&nbsp;» à son lot de jeux mal optimisé.<br /> Gothic 3 ou Everquest 2, pour des jeux pas «&nbsp;si vieux que cela&nbsp;» étaient réellement mal optimisé, et bien d’autres ont ouvert la voie.<br /> Sauf que désormais les jeux ne se plus en 1080P, mais au moins en 1440P, et là pas de secret, il faut un GPU plus solide, avec plus de ram.<br /> Il faut cependant pondérer et accepter de jouer en mid details et pas en résolution max, afin de garder son matériel.<br /> J’ai encore une 970GTX/i5 6600, qui sera remplacé jeudi par une 3080/i5-12600, pour un tarif presque 2.5x plus chère que ma config actuelle, et je tiens à la garder au moins 5-6 ans, voir plus, histoire de survoler les pénuries et les tarifs fou.
Myraloes
Les problèmes que vous évoquez n’ont rien à voir avec «&nbsp;l’incompétence&nbsp;» des développeurs. Le développement est un domaine très complexe. Si vous êtes «&nbsp;incompétent&nbsp;» comme vous dites vous avez peu de chance d’exercer une activité professionnelle dans ce domaine. Il faut une volonté solide, un cerveau capable d’appréhender des abstractions difficiles et gérer un flux considérable d’informations pour devenir développeur. Ces derniers sont donc des gens «&nbsp;TRES&nbsp;» compétents. Ce dont vous parlez est davantage dû à des problèmes de choix d’ordre structurels, d’organisations des ressources et de management inhérents au capitalisme et non pas a un problème de compétence.
mamide
sebstein:<br /> il faut bien que le matériel derrière évolue… et l’optimisation des architectures, ça fonctionne un temps, mais ça a aussi ses limites<br /> laisse tomber l’optimisation … La RTX 3090 Ti aura un TDP de 450W tu trouves normal d’avoir 100 Watts de plus pour seulement 200 coeurs de plus (qui sur Ampere n’apporte pas grand chose en perfs). In the same time la 3080 Ti a 30W de différence que la 3080 pour 1536 Coeurs en plus même si dans la réalité c’est plus mais ce n’est pas 100 Watts non plus.<br /> Où est la limite dans tout ça ? c’est la même architecture, même GPU avec quelques coeurs réactivés et une mémoire un peu plus rapide.
mamide
Myraloes:<br /> Les problèmes que vous évoquez n’ont rien à voir avec « l’incompétence » des développeurs. Le développement est un domaine très complexe. Si vous êtes « incompétent » comme vous dites vous avez peu de chance d’exercer une activité professionnelle dans ce domaine. Il faut une volonté solide, un cerveau capable d’appréhender des abstractions difficiles et gérer un flux considérable d’informations pour devenir développeur. Ces derniers sont donc des gens « TRES » compétents. Ce dont vous parlez est davantage dû à des problèmes de choix d’ordre structurels, d’organisations des ressources et de management inhérents au capitalisme et non pas a un problème de compétence.<br /> Que l’on soit bien d’accord, il faut pas prendre le mot mais le contexte dans lequel je l’ai utilisé !<br /> On va faire comme les anglais … un anglais ne peut pas donner la définition d’un mot sans qu’il y ait un contexte car ça n’existe pas une définition d’un mot tout seul il a plusieurs sens.<br /> Le mot «&nbsp;incompétence&nbsp;» couvre plusieurs aspects et ne veut pas dire qu’on a rien dans la tête mais quand on lance un produit non fini alors c’est comme s’il a été développé par des incompétents voilà.<br /> Y a aussi les éditeurs qui mettent la pression aux studios pour sortir des jeux pas finis … c’est pas de leurs fautes mais on peut toujours les classer comme des incompétents au vu du résultat !<br /> Nous on est des consommateurs et un consommateur juge le produit et le produit reflète celui qui l’a développé. Et d’ailleurs j’ai répondu à quelqu’un sur ce point, il disait qu’on a pas le droit de critiquer sans être développeur. Si un utilisateur n’a plus le droit de critiquer un produit qu’il a payé alors qui va critiquer ? le développeur ? <br /> Mais il ne faut pas nier le fait qu’aujourd’hui, les développeurs optimisent surtout leurs produits pour les machines puissantes et laisse de côté celles moins puissantes.<br /> Beaucoup mettent les specs qu’il faut pour tourner un jeu mais ils oublient de dire que c’est en 1080@30 FPS … qui joue à 30 FPS ? on sait tous qu’il faut au moins 45 FPS pour sentir une certaine fluidité in-game (c’est pas un film mais un jeu).
Blackalf
THIERRY_TRETOLA:<br /> que des conneries ces cartes graphiques…et leur prix et penurie, je suis encore en hd 7970 et quad 9550 , lga 775 ssd et 8go de mem et tout va bien en jeu ! !.. la vaste blague…<br /> C’est que tu ne joues pas à grand-chose de récent. <br /> Il se trouve que j’avais un Phenom II X4 965 équivalent au Q9650, et il n’était déjà plus capable de faire tourner correctement Wolfenstein : New Order…de 2014. Et le remplacement de la cg HD 5870 par un R9 280X (HD 7970 rebadgée et boostée) n’y a rien changé.<br /> Il a fallu que je passe sur un i5 4690K pour pouvoir enfin faire tourner correctement tous mes jeux, donc il est clair qu’un Q9550 est largement obsolète à moins de se contenter de vieux jeux peu gourmands.<br /> Quand à la HD 7970, elle ne pourrait même pas faire tourner Doom Eternal, parce qu’elle n’aurait pas accès à la version des pilotes nécessaire.
DrCarter95
5 nm = 0,005 O-microns.
donjuju
De Turing à Ampere on a multiplié par 2,3 la puissance de calcul. J’ai une 3090 mais perso je ne pense pas qu’il y ait une «&nbsp;révolution&nbsp;» par rapport à une 2080Ti. On aurait la même différence entre une 3090 et 4090 mais franchement pour quoi ? Depuis 2015 les jeux ne sont honnêtement pas significativement plus beaux. Par contre la chauffe est un vrai problème. Ma 3090 FE se fait sentir dans le boitier (pourtant très bien ventilé (x6 ventilo) et watercoolé pour le proc). Passer à 5nm ne fera pas une grosse différence par rapport à du 8nm (et encore faut il que ce soit du vrai 5nm).<br /> Apple l’a bien compris avec ses M1. Le nerf de la guerre maintenant sera surtout la perf conso/puissance. Passé 400 Watts, c’est trop pour une CG. Je pense qu’on atteind une limite à celui qui a la plus grosse ! (vrai aussi pour les proc où les fréquences stagnent)
Sans_Plot
MDR, ces gens la sont au courant des pratiques des gros studios, donc si, ils aiment puisqu’ils acheteront le prochain battlefield<br /> Presonnellement, je n’achète plus depuis très longtemps ce genre de jeux à la sortie ou même plus tard car je n’aime pas spécialement les jeux multijoueurs ou les gros jeux dans lesquels ils faut s’investir<br /> Mais comme je disais, si les gens n’aimaient vraiment pas, ils acheteraient pas (ils sont surement un peu maso)
Popoulo
Si tu le prends comme ça je te répondrai qu’ils sont payés pour faire un job, alors qu’ils le fassent bien. Quand on voit la débacle CP2077, on comprend qu’ils s’en battent les flancs.<br /> L’argument du «&nbsp;devriez postuler blablabla&nbsp;» ne fait que confirmer cette incompétence qui règne dans ce domaine.<br /> Avant de faire tourner à 120fps sur un raspberry, apprenez à faire des jeux qui tournent un minimum correctement et qui ne nécessitent pas des patchs dayone de dizaines de gigas pour se lancer.
sebstein
Tu sais quoi ? On va faire comme les anglais : ce que tu racontes, c’est du gros (mais alors du très gros) bullshit !<br /> «&nbsp;Incompétence&nbsp;» n’a pas 36 sens, peu importe le contexte. «&nbsp;In-compétence&nbsp;», c’est la négation de «&nbsp;compétence&nbsp;», soit un manque de capacité dans un domaine donné (ce qui est exactement ce que tu sembles reprocher aux développeurs), il n’y a pas à tortiller du cul…<br /> mamide:<br /> Mais il ne faut pas nier le fait qu’aujourd’hui, les développeurs optimisent surtout leurs produits pour les machines puissantes et laisse de côté celles moins puissantes.<br /> Ca démontre très bien ton manque de connaissance du sujet… si c’est optimisé pour les machines puissantes, c’est optimisé pour les machines moins puissantes… mais… comme tu le précises bien… elles sont moins puissantes.<br /> mamide:<br /> Et d’ailleurs j’ai répondu à quelqu’un sur ce point, il disait qu’on a pas le droit de critiquer sans être développeur. Si un utilisateur n’a plus le droit de critiquer un produit qu’il a payé alors qui va critiquer ? le développeur ?<br /> Toi qui parles de contexte… Il n’a pas dit qu’un consommateur n’avait pas le droit de critiquer le produit qu’il achète, mais ce que tu fais, ce n’est pas critiquer un produit, c’est juger de la compétence de ceux qui l’ont développé, ce qui est tout à fait différent. Et, dans ce deuxième cas, oui, il est clair que pour juger de la compétence de qqun, il faut avoir un minimum de connaissance de ce sur quoi portent ses compétences.<br /> mamide:<br /> Beaucoup mettent les specs qu’il faut pour tourner un jeu mais ils oublient de dire que c’est en 1080@30 FPS<br /> Généralement, il y a les specs min et celles conseillées. Si tu es dans le premier cas, il me semble assez logique de ne pas s’attendre au même résultat que si tu étais dans le second.<br /> Quand tu t’achètes une voiture de 90 chevaux, tu t’attends à ce qu’elle ait les mêmes perfs qu’une Lamborghini ? Tu considères le pompiste comme incompétent parce qu’il t’a vendu un carburant qui ne te permet pas de rouler à 300 km/h ou de pouvoir faire le 0-100 en moins de 3 secondes ?
jeanlain
Ok, t’as raison. 100% des développeurs sont des incompétents fainéants. Seul toi et l’autre pseudo anglais avez raison et savez développer un jeu, fin du débat.
mamide
jeanlain:<br /> Et de toutes façons GTA 3 ne demande pas une RTX 3090, faut arrêter… J’y joue tout à fond avec ma 2060 (du coup me comparer à des trolls qui encouragent l’achat de de CG à 2k€, ça me fait doucement rigoler :o) …<br /> C’est là qu’on reconnait les trolls … ta toujours réponse à tout même quand tu sais que ta tort !<br /> Tu fais tourner GTA 3 en 4K 60 FPS avec ta RTX 2060 ?? arrête ton délire !!!<br /> Je t’ai donné une preuve qu’on peut être un grand studio et faire de la M*** et GTA Trilogy est un exemple parfait !<br /> Je t’ai dit que GTA 3 tournait moins bien sur une RTX 3090 en 4K que GTA V … et tu me balances que ce jeu n’a pas besoin d’une RTX 3090 ???<br /> Déjà ta oublier le fait que j’ai précisé «&nbsp;4K&nbsp;» et si tu jouais en 4K tu ouvrirais même pas ta bouche … et celui qui se paye une CG à 2000 boules il a le droit de râler sur un jeu de 20 ans remasterisé qui tourne pas bien sur sa machine de guerre.<br /> Peu importe la raison quand on peut pas faire quelque chose on ne le fait pas c’est tout … on va pas dire que le développement d’un jeu est très complexe blablabla pourquoi le sortir alors ?<br /> Cyberpunk 2077 est sorti sur PS4 et Xbox One alors que ces machines n’ont pas la puissance pour le faire tourner … il devrait pas sortir tout simplement parce que s’il sort alors les développeurs n’ont pas été capable de l’optimiser sur ces machines point barre !<br /> Sujet Clos … je réponds plus aux trolls !
sylvio50
donjuju:<br /> … Passer à 5nm ne fera pas une grosse différence par rapport à du 8nm (et encore faut il que ce soit du vrai 5nm).<br /> Apple l’a bien compris avec ses M1. Le nerf de la guerre maintenant sera surtout la perf conso/puissance. …<br /> Apple utilise justement une lithographie 5 nm. C’est cela couplé à une grosse surface de die qui leur permet d’atteindre un bon rapport puissance/consommation.<br /> Je signal juste que le TDP est proportionnel au carré de la fréquence pour un GPU donné.<br /> Si tu regarde les chiffres de l’hypothétique RTX 4090, tu arrive à la conclusion qu’en divisant la fréquence par 3, on serait à un TDP de 72 W (650 W / 3² = 72 W) dans le pire des cas pour une puissance de calcul théorique de 30 TFLOPS (90 TFLOPS / 3 = 30 TFLOPS) soit 2 fois plus que pour la RTX 2080Ti, le tout pour une consommation théorique 3,5 fois inférieur à la RTX 2080Ti.<br /> C’est à cela que sert les lithographies de plus en plus fine. Contrairement à ce que beaucoup pense, Apple n’y ai pour pas grand chose la dedans. Ce ne sont pas les dieux que certains aimeraient nous faire croire. Ils s’appui sur les avancés de TSMC pour ça. Et bientôt, il y aura le 3 nm couplé à la technologie des Chip-Let qui permet de fabriquer une puces à partir de 2 ou 4 die pour n’en faire qu’une seule puce. Cette technique permettra de fabriquer un GPU de 1000 mm² (4 x 250 mm²) pour le prix d’un autre de peut être 600 mm² (unique 600 mm²) en gros.<br /> Nota : Nvidia/AMD ne fabrique pas de GPU a faible TDP à cause du mauvais rapport perf/prix. Ca leur couterai le même prix de faire un GPU de 90 TFLOPS @ 650 W ou de 22,5 TFLOPS @ 40 W. Les testeurs de GPU diraient que le GPU de 22,5 TFLOPS à 1000 € est nul et qu’il est préférable d’acheter un RTX 4050 à 200 € qui aurait un meilleur rapport puissance/prix ou d’aller chez la concurrence AMD. Apple ne semble pas être touché par ce problème car peu de concurrent.
donjuju
Merci pour ces infos enrichissantes !
Stellvia
Votre débat est stérile je trouve, les CPU et GPU augmente en conso et chauffe, mais derrière les gens continuent d’acheter… perso je me suis fixé une limite a 200 watt grand grand max pour la CG ( ce qui est équivalent a une 3060ti laaaaaaaaaaaaargement suffisant pour beaucoup ) et un CPU avec un TDP de 105watt ( ryzen 9 ) ce qui me permet de bosser et jouer très a l’aise. Je ne comprends vraiment pas les gens qui achètent des CG a 400 watt voir 600 ( c’est du délire !!! ), idem pour les CPU quand ca commence a taper &gt; 150 c’est aussi vraiment n’importe quoi ( coucou intel ).<br /> Les watt ca consomme , ca coute cher en élec, ca chauffe tellement qu’en été t’es obligé de jouer a poil, pourquoi les gens continuent d’acheter ca ? Les gens vont acheter des gpu a 650 watt pour de vrai ?
sylvio50
On pourrai dire la même chose pour toi dans ce cas 300 Watts, c’est beaucoup. Mon PC doit être actuellement à 130W total (75 W la CG RTX 3050 et 35W le CPU Ryzen 5 5600H et peut être 20W pour le reste) et c’est suffisant même si je ne joue pas en réalité donc j’ai désactivé la CG depuis le BIOS donc j’ai un TDP minuscule d’environ 70W total au final avec le chipset intégré .
THIERRY_TRETOLA
JE JOUE A TITANFALL 1<br /> JAI JOUE A TOUT AVANT DEPUIS TENNIS BARREZ<br /> titanfall 1 n1
Voir tous les messages sur le forum