Cyberpunk 2077 : la version 2.0 va faire chauffer votre processeur

14 septembre 2023 à 08h35
67
© CD Projekt RED
© CD Projekt RED

En amont de la sortie de la mise à jour majeure 2.0 de Cyberpunk 2077, CD Projekt RED s'est fendu d'un avertissement.

Prévue le 21 septembre, soit 5 jours avant la sortie de l'extension Phantom Liberty, celle-ci pourrait en effet avoir un impact certain sur le processeur, à en croire Filip Pierścińsk, développeur au sein du studio polonais. Pour rappel, CD Projekt RED a revu à la hausse les configurations PC requises pour son dernier jeu en date en vue de cette nouvelle version importante à plus d'un titre. Une telle exigence sur le processeur est un autre symptôme des gros changements à venir.

Surchauffe des implants

Mètre étalon graphique et vitrine technique des technologies de NVIDIA, path tracing par le mode Ray Tracing Overdrive et DLSS en tête, Cyberpunk 2077 aura bientôt de nouveaux implants qui vont faire chauffer le système. C'est en tout cas ce que nous indique Filip Pierścińsk sur son compte X.com.

Celui-ci invite en effet les joueuses et joueurs PC à faire un rapport de situation quant au système de refroidissement de leur machine. « Nous allons utiliser tout ce que vous avez, donc une charge de travail de 90 % pour un processeur équipé de 8 cœurs est attendue. » S'il s'agit d'un exemple assez nébuleux, on se doute qu'il concerne un modèle relativement récent.

© CD Projekt RED / NVIDIA
© CD Projekt RED / NVIDIA

L'homme préconise également d'utiliser Cinebench ou d'autres outils de benchmark similaires afin de vérifier la stabilité de votre PC. Un conseil que les plus avisés auront sans doute déjà suivi par ailleurs, mais qui va mieux en le disant.

Cyberpsychose

Depuis sa sortie il y a maintenant près de 3 ans, Cyberpunk 2077 s'est présenté comme l'un des jeux récents les plus gourmands sur PC, et plus particulièrement en ce qui concerne la carte graphique. Un fait encore plus remarquable depuis l'addition du path tracing avec la dernière grosse mise à jour en date.

Avec le patch 2.0, CD Projekt RED entend refondre radicalement le gameplay de son dernier Action-RPG, notamment en matière de comportement des forces de l'ordre et de l'intelligence artificielle des adversaires en général. Ces éléments parmi tant d'autres sollicitent principalement le processeur. Le studio polonais préfère donc prévenir la cyberpsychose de nos PC plutôt que la guérir.

© CD Projekt RED
© CD Projekt RED

Rappelons que pour préparer l'arrivée de cette mise à jour majeure et de Phantom Liberty, les configurations PC requises ont également été révisées. Pour la configuration minimale, il faut ainsi compter côté processeur sur un Core i7-6700 ou un Ryzen 5 1600. Pour la configuration recommandée, on passe à un Core i7-12700 ou un Ryzen 7 7800X3D. Enfin, pour profiter au maximum du mode Ray Tracing Overdrive, un Core i9-12900 ou un Ryzen 9 7900X est préconisé.

Nous voilà en tout cas prévenus avant l'arrivée de cette fameuse version 2.0 de Cyberpunk 2077, prévue le 21 septembre, puis pour Phantom Liberty, dont la sortie est attendue le 26 septembre sur PC ainsi que sur PS5 et Xbox Series X|S, et dont le poids sera d'une trentaine de Go.

Robin Lamorlette

Fan absolu de tech, de films/séries, d'heroic-fantasy/SF et de jeux vidéos type RPG, FPS et hack&slash qui se shoote à coups de lore sur Star Wars, The Witcher, Cyberpunk, Game of Thrones et Donjons &...

Lire d'autres articles

Fan absolu de tech, de films/séries, d'heroic-fantasy/SF et de jeux vidéos type RPG, FPS et hack&slash qui se shoote à coups de lore sur Star Wars, The Witcher, Cyberpunk, Game of Thrones et Donjons & Dragons/Baldur's Gate 3.

Lire d'autres articles
Vous êtes un utilisateur de Google Actualités ou de WhatsApp ? Suivez-nous pour ne rien rater de l'actu tech !
google-news

A découvrir en vidéo

Rejoignez la communauté Clubic S'inscrire

Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.

S'inscrire

Commentaires (67)

Fodger
Vouloir à tout prix jouer en 4k c’est ridicule ça n’apporte rien de plus visuellement par rapport à du 1080p à part faire exploser la consommation électrique, la surchauffe et donc l’impact écologique.<br /> Et par dessus tout c’est faire le jeu du marketing, c’est exactement ce que veulent les fondeurs pour faire acheter toujours plus, consommer plus pour finalement… détruire encore davantage la planète.
SlashDot2k19
Curieux de voir ce que cette extension va donner sur les consoles…
SlashDot2k19
Ben sur un grand écran, le 4K s’apprécie
Fodger
La différence n’est pas flagrante non plus, surtout avec un jeu en mouvement.<br /> Il faut quoi du 40" (bonjour le recul nécessaire pour bien voir) ?<br /> Sur du 24, 26" standard le fullhd est largement suffisant.<br /> Le ratio qualité du rendu, énergie dépensée (unité centrale, écran) est très largement défavorable pour le 4k.<br /> D’ailleurs ce serait intéressant qu’un jour Clubic fasse un dossier comparatif sur la consommation électrique d’un panel de jeux en FULLHD et en 4K.
youmetooandyou
à quand une étude de copernicus sur la participation de cyberpunk (v1 et v2) sur le réchauffement climatique ?
SlashDot2k19
Fodger:<br /> Il faut quoi du 40" (bonjour le recul nécessaire pour bien voir) ? <br /> Avec du 4K, le recul nécessaire est plus faible.<br /> Fodger:<br /> Sur du 24, 26" standard le fullhd est largement suffisant.<br /> On est d’accord.
Ccts
Je ne pense pas que comparer 4K et fhd soit judicieux. On a une vraie différence entre les 2 même sur un écran normal autour des 24/27 pouces. J’ai 2 pc côte à côte à la maison en 27, un fhd et un 2k y’a pas photo. Par contre je te rejoins entre 4K et wqhd (2k). Je trouve le gain peu significatif sauf à jouer sur des très grands écrans. Et le gain en puissance nécessaire est très important par rapport au gain en qualité.
dante0891
En vrai actuellement le mieux ça reste le 1440P qui utilisera mieux le GPU qu’en 1080P dont le CPU est plus sollicité.<br /> Je joue en 1080P 21/9é mais j’aimerais passer sur un 1440P 21/9é.<br /> Cette résolution ne concerne pas le jeu mais également le bureautique, il y a plus d’affichage.
jeromeblf
j’ai arrêté de lire l’article après une dizaine de lignes, c’est écrit a l’aide d’ i a ??<br /> très fatiguant a traduire du Français vers Français !!! ha ha
dante0891
Sur le jeu normal entre une version PS5 et PC, la différence n’est pas flagrante au 1er coup d’oeil, j’ai acheté le jeu sur les 2 versions.<br /> J’ai tout de même pris l’extension sur PS5 et non PC.<br /> Ce qu’il me manque entre la version PS5 et PC et le coté écran que j’ai en 21/9é sur PC ^^’ (plus d’affichage sur le coté).<br /> Dommage que le consoles n’adopte pas non plus cette caractéristique.
Goodbye
C’est quand même flagrant la différence entre du 1080 et rien que du 1440p sur un 27" par exemple.<br /> Bientôt on va avoir un commentaire comme quoi + de 30 fps c’est inutile
Remoss
J’ai acheté il y a 1 mois un Samsung Odissey G8 Oled qui affiche du 1440, et franchement je n’ai pas trop vu la différence avec du 1080…
Goodbye
Rien compris.
Fodger
Je dis ça parce que le champ de vision binoculaire moyen est de 120° donc avec un grand écran pour apprécier vraiment l’ensemble. On considère un angle central utile (lecture / couleur) autour de 40°.<br /> Pour un 55" on recommande du coup 1,70, soit au moins ~1,25m pour 40".<br /> Je trouve qu’il y a quelque chose de très satisfaisant, d’intelligent à se dire qu’on joue d’excellentes conditions sans être au top des perfs mais en ayant une configuration qui consomme le moins possible.
Blap
C’est très différent.<br /> Repasser de 60 fps a 30 fps est horrible et flagrant. Repasser du 1440p a du 1080p c’est pas bien problématique, surtout sur du jeu ou on va pas forcément s’en rendre compte.
Feunoir
Un peu illogique la remarque car en 4K, en même ratio 16/9, le cpu est, au pire, utilisé exactement pareil qu’en full hd.<br /> Et en pratique le gpu étant a genoux c’est même plutôt possible qu’il ait le temps de se tourner les pouces en attendant l’affichage.<br /> En gros coté cpu la consommation est surement plus élevé en full hd qu’en 4k
Fodger
Ben non le rendu 4k en terme de calcul est forcément plus conséquent qu’en 1080p c’est la base de la logique sinon les recommandations de configurations seraient égale pour toutes les résolutions . Je considère la bécane dans son ensemble même si effectivement c’est d’abord le GPU qui bosse pour ce genre de jeu, mais pas que.
bennukem
La 4K c’est le GPU qui s’en occupe. Le CPU a autre chose à faire. Je suis curieux de savoir ce qui poussera à autant de travail
Feunoir
J’insiste, le cpu calcul les même données, même pnj, même objet en mouvement, mais pour 45FPS au lieu de 130, donc en 4K il a le temps de glander
Ccts
Je me fais la même réflexion. Je suis étonné que la reco cpu change autant entre les 2. Et v’la la reco quand même ! Des i7 et i9 ….<br /> Remarque l’excuse de l’ia des jeux animée via une vrai ia va sûrement donner des idées pour vendre des cpu plus puissants pour les jeux. Dommage pour nous.
Jona-85
La distance des reflets en Ray tracing sur les objets.
Fodger
Je demande à voir; mais de toute façon c’est l’ensemble qui compte et c’est sans appel.
Martin_Penwald
à l’aide d’I.A.<br /> à traduire
Martin_Penwald
Note, on pourrait imaginer utiliser une ferme d’ordinateurs pour s’occuper de la partie IA.
Pernel
Pour l’impact écologique, arrête internet, n’achète pas de gsm ni de PC, et surtout le prend pas la voiture…
Fodger
En voilà une réflexion idiote, le point godwin tout pourri.<br /> Ce n’est pas comme ça qu’on tire l’humanité vers le haut.<br /> Déjà vouloir bien faire les choses dès le départ ça serait bien.<br /> Ensuite une bonne question c’est : comment faire avec moins, mieux, plus intelligemment c’est à dire en intégrant les limites de notre monde ?<br /> C’est applicable à une multitude de domaines.
Pernel
Non je fais une réflexion à ton niveau (si tu vois ce que ça veut dire…).<br /> Le point «&nbsp;Goldwin&nbsp;» n’existe pas, c’est le point Godwin et ça n’a absolument aucun rapport. Encore un qui utilise des mots qu’il a entendus sans savoir de quoi ça parle mais qui l’utilise pour faire bien. Spoiler, ça montre juste le ridicule de ta réflexion…
Core-ias
Pour la configuration minimale, il faut ainsi compter côté processeur sur un Core i7-6700 ou un Ryzen 5 1600. Pour la configuration recommandée, on passe à un Core i7-12700 ou un Ryzen 7 7800X3D.<br /> Et il conseil de branché le câble HDMI ou DisplayPort entre la carte-mère et l’écran ou la carte graphique additionnelle et l’écran ? Freesync et/ou Gsync n’est pas de «&nbsp;l’hérité&nbsp;».<br /> Certains PC de marque désactive l’affichage sur carte-mère quand la carte graphique additionnelle est là. Pas la carte sons ou réseau additionnelle je crois bien. C’est les joueur sur PC portable qui ont une certaine option on dirait bien.
ar-s
J’ai un 27" et les jeux en QHD sont tout de même notablement plus beau qu’en FHD.<br /> J’ai pas de 4K donc je ne me prononcerai pas dessus.
Prot
Quand on dit la même chose, on nous traites de complotiste etc …<br /> Les sociétés, le marketing, les médias sont très lié…
fredmc
Je suis totalement d’accord avec toi et c’est totalement vrai mais bonne chance pour convaincre le commun des mortels qui a des yeux bioniques …
fredmc
Le problème c’est le prix des écrans. Est ce que le gain justifie la différence de prix entre un écran FHD et 2k ? Pas certain
fredmc
Alors ca c’est pas vrai du tout … le meilleur exemple est récent … starfield
xXBernadette_SanguineXx
Perso mon PC à été fait pour mettre les jeux en 1440p avec un 32pouces 21/9 c’est quand même le bon compromis pour jouer, pas aussi gourmand que ça et très propre visuellement. (question de budget et de confort)
CallMeLeDuc
Le plus ridicule c’est les gens qui pensent qu’il n’y a aucun avantage à jouer en 4k avec une résolution de 3840x2160 et en HD qui a pour résolution 1920x1080.<br /> Pour ma part je joue sur un LGC2 de 42" et la différence entre du 4K ou de HD est flagrante.
Fodger
Coquille oui godwin, c’est corrigé.<br /> Justement non, c’est bien le problème tu ne sais pas de quoi tu parles et tu regardes les choses au niveau du sol, prends de la hauteur.<br /> La pollution planétaire vient essentiellement de la façon dont on produit et la mauvaise utilisation des ressources, dont l’énergie et l’industrie informatique (au sens large) est un énorme point noir.<br /> Et c’est un fait qu’on retrouve dans le développement logiciel : moins ton soft est optimisé, bien pensé plus il va solliciter tes ressources à fond dans le temps (cpu, gpu, mémoire, disque, réseau, résolution élevée…) et donc consommer d’avantage d’énergie.<br /> Ton raisonnement débile de dire «&nbsp;oohhhh nia nia nia ça pollue c’est normal il faut rien faire sinon&nbsp;» et bien heureusement qu’il n’est suivi par tous sinon on serait encore à rouler avec des caisses qui consomment 15L / 100 de gasoil en fumant des gitanes maïs.
Francistrus
el famoso «&nbsp;nianiania l’oeil ne peut pas voir + de 30 fps nianiania&nbsp;»
Fodger
Comme si tout le monde jouait sur du 42"… quant au côté flagrant de la chose quand tu as tous les lissages possibles, il devient bien mince et plus encore en pleine action (car oui on ne voit plus les détails avec précision avec des mouvements rapides, l’œil est ainsi fait).
Pernel
C’est celui qui me parle de Godwin sans savoir ce que ça veut dire et que ça ait un rapport qui me dit que je ne sais pas de quoi je parle ? Heureusement que le ridicule ne tue pas…<br /> Fodger:<br /> Ton raisonnement débile de dire « oohhhh nia nia nia ça pollue c’est normal il faut rien faire sinon » et bien heureusement qu’il n’est suivi par tous sinon on serait encore à rouler avec des caisses qui consomment 15L / 100 de gasoil en fumant des gitanes maïs.<br /> Non, mais raisonnement «&nbsp;débile&nbsp;» est juste là pour te montrer à quel point le tien l’est. On appelle ça l’exemple par l’absurde. Mais vu comme t’as l’air de faire des liens avec des choses qui n’existent pas, on comprend mieux que quand un lien existe vraiment tu ne le vois pas…
Fodger
Pernel:<br /> Pour l’impact écologique, arrête internet, n’achète pas de gsm ni de PC, et surtout le prend pas la voiture…<br /> Pour l’impact écologique, arrête internet, n’achète pas de gsm ni de PC, et surtout le prend pas la voiture…<br /> ça c’est un point godwin, un argument choc à la con pour couper court à la conversation.<br /> Qu’est-ce qui n’existe pas ?
Pernel
Encore une fois tu utilises une expression que tu ne connais pas, autant ça pouvait prêter à rire au début, autant maintenant ça devient ridicule pour pas dire chiant… C’est pas comme si t’avais pas internet pour vérifier tes mots avant de les utiliser…<br /> La cuillère, c’est la cuillère qui n’existe pas…
Fodger
Pas la peine de te vexer. Tu n’en es pas venu à parler de nazi je te l’accorde, mais ton propos est brutal et sans aucune réflexion.<br /> J’ai volontairement exagéré le propos parce que sortir un argument aussi creux comme tu l’as fait au dessus n’apporte rien et confine vraiment à la connerie, ni plus ni moins.
Pernel
Vexer ? Encore un truc sans rapport, franchement t’es ridicule.<br /> Comme je te l’ai déjà dit (il va falloir faire un effort à un moment), mon commentaire était pour montrer le ridicule du tien…<br /> Non tu n’as pas exagéré le propos, tu as juste balancé un truc qui n’a absolument rien à voir, dont tu avais entendu parler mais tu n’avais pas pris les 15 secondes nécessaires pour comprendre le sens, ça n’a rien à voir avec une exagération. Exagérer les propos c’est ce que moi j’ai fait, c’est au moins la 3eme fois que je te le dis…<br /> Et parler de connerie quand on est pas capable de comprendre le sens d’une phrase et qu’on utilise des expressions qu’on ne connait pas pour faire genre, ça c’est de la connerie. Balaye devant ta porte avant de t’occuper de celle du voisin.<br /> Pour ton bien, arrête de te ridiculiser plus à chaque intervention ou réfléchi 3 secondes d’affilée…
Fodger
Bon ta réaction en dis plus sur toi que sur moi, être imbu de toi même .<br /> Ce n’est pas moi qui ait sorti «&nbsp;Pour l’impact écologique, arrête internet, n’achète pas de gsm ni de PC, et surtout le prend pas la voiture…&nbsp;». Je n’ai fait que provoquer et ça a bien fonctionné.<br /> Assume ta bêtise et passe à autre chose.
Pernel
Venant d’un mec qui utilise des expressions qu’il ne maîtrise pas pour se faire bien voir (et qu’il ne sait pas écrire…) c’est quand même assez drôle, surtout quand tu penses que t’as les capacités de vexer quelqu’un sans rien faire…<br /> Non, tu n’as pas provoqué quoi que ce soit, tu as juste sorti une énormité (parmi tant d’autres dans ce fil) et tu n’acceptes pas qu’on te montre le ridicule de ce que tu racontes.<br /> En plus tu oses parler d’assumer alors que vu ce que tu balances comme débilité on est à se demander si t’as la possibilité de savoir ce que veut dire assumer.
juju251
On va revenir au sujet s’il vous plait. ^^
CallMeLeDuc
Toi tu nous parle du pitch d’un écran et des pixels d’un écran et du fait qu’il est quasi impossible de voir la différence entre du 4k et du HD sur un «&nbsp;petit&nbsp;» écran genre 27"<br /> Ce qui est VRAI je te l’accorde.<br /> Sauf qu’il y’a un truc que tu ne pige absolument pas. C’est la Résolution !<br /> Jouer avec une Résolution en 4K soit 3840x2160 c’est avoir 4 écrans HD sur son écran! et donc la possibilité d’afficher bien plus d’éléments à l’écran, que ce soit pour l’UI d’un jeu ou le jeu lui même.<br /> Donc quand tu explique sur un ton péremptoire que:<br /> Vouloir à tout prix jouer en 4k c’est ridicule ça n’apporte rien de plus visuellement par rapport à du 1080p à part faire exploser la consommation électrique, la surchauffe et donc l’impact écologique.<br /> C’est faux et prouve ton ignorance sur le sujet.<br /> Et pour revenir au sujet «&nbsp;merci juju&nbsp;»<br /> J’espère juste que ce DLC de CP77 sera bien optimisé pour les ryzen vulkan aussi.
juju251
CallMeLeDuc:<br /> J’espère juste que ce DLC de CP77 sera bien optimisé pour les ryzen vulkan aussi.<br /> Les Ryzen Vulkan ?<br /> Les quoi ?
CallMeLeDuc
l’API optimisé pour les cpu AMD (ryzen) ça tourne mieux qu’avec directX11
wackyseb
Je joue sur du 27 pouces et je suis passé de 1080p à 4K puis retour raisonnable à 1440p mais 165 Hz.<br /> De mon expérience perso, jouer en 1080p sur du 27 pouces non merci.<br /> la 4K sur un écran de cette taille n’apporte effectivement rien du tout.<br /> Au mieux je jouais à l’époque sans aucun filtrage car l’image était belle naturellement.<br /> Ce n’est que mon humble avis
wackyseb
En PLS !!!<br /> Vulkan c’est une API GRAPHIQUE pour les cartes graphique. Avec CPU AMD ou Intel, aucun changement.<br /> Pas mieux en Ryzen qu’en Core.<br /> Tu confond avec les APU ryzen qui intègre une puce graphique et là évidemment c’est plus performant quel que soit l’API de programmation (OpenGL, Vulkan, DirectX) que la partie graphique intégré à des Intel.<br /> Vulkan marche très bien aussi sur les cartes graphiques Nvidia
Feunoir
Je joue en 4K sur ma tv 75pouces, la full hd c’est aussi non merci <br /> Après avec le dlss on peut dire que je joue aux jeux récents en 1440p si cela peut faire plaisir a certain mais dans pas mal de jeu je suis en natif 4k<br /> Contrairement a pas mal de gens je limite mes FPS sous le max du jeu, mon gpu est rarement a fond. Etre a fond de gpu c’est avoir + de variation de fps à mon avis.<br /> Je joue même avec les options pendant qq minutes apres l’installation d’un jeu, voir parfois les fichiers de configuration (elimination de toutes les sources de flou, de grain de film, d’effet bidon et certain truc trop gourmand pour ce que cela apporte)<br /> (Le dernier god of war j’ai carrément modifier l’executable du jeu avec un éditeur hexadecimal pour dégager la profondeur de champs ignoble presente par defaut )<br /> Mais dans un jeu je ne fais jamais calculer 300FPS au gpu pour n’en afficher que 120, j’utilise même assez peu le 120HZ de ma tv 4K pour l’instant les fps ayant déjà un peu de mal a dépasser 60
wackyseb
Enfin quelqu’un de normal et pas un acharné du FPS. Bravo. Ça fait plaisir.<br /> Moi également j’utilise assez peu le RT car dans pas mal de jeu ça n’apporte rien du tout.<br /> Le grain de film c’est l’option la plus debile qui existe. La dégradation de l’image !!!<br /> Les flous souvent aussi gachent l’expérience.<br /> Et l’occlusion ambiante qui bouffe beaucoup, ça dépend aussi. Des fois ça améliore vraiment les ombres et des fois on ne perçoit aucune différence.<br /> Mon écran est donc à 165 fps mais aucune différence au delà de 100 voir 120 pour des jeux typés FPS.<br /> Et comme le but n’est pas de devenir le prochain triple champion en e-sport, ça suffit largement.<br /> Je ne sais pas modifier les exe, par contre l’undervolting de la carte graphique pour moins chauffer et moins ventiler, ça je gère
CallMeLeDuc
Salut à toi.<br /> Je ne m’abaisserais pas à balancer des PLS à tout va.<br /> Mais pour ton information.<br /> Bien que en effet l’API Vulkan à pour intérêt principal la chaine GPU, pilotes, et moteur 3D.<br /> l’API Vulkan améliore AUSSI la gestion des CPU multicore comme les Ryzen AMD.<br /> De fait et que tu me crois ou non m’importe peu mais j’ai 20% de FPS en plus avec Vulkan activé plutôt qu’avec DirectX11.<br /> Passer de 100fps a 130fps ne change pas grand chose pour moi, mais quand le jeu propose les 2 API pourquoi ne pas prendre la plus performante pour sa config…<br /> L’API graphique Vulkan permet aussi d’augmenter les performances grâce à un meilleur support des processeurs multicœurs, en supportant par défaut de multiples threads. Ainsi, Vulkan peut optimiser l’utilisation d’un processeur doté de multiples cœurs pour mieux répartir la charge et tirer parti des performances maximales. C’est grâce à cette nouveauté qu’il est désormais possible d’afficher des milliers, voire des centaines de milliers d’objets sur une scène sans mettre à genoux le processeur, tout en conservant une bonne fluidité, exprimée en images par secondes (FPS).
wackyseb
Manifestement tu ne sais pas ce qu’est Vulkan alors.<br /> Depuis que les PC existent, on a eu opengl, glide, tous les directX, vulkan pour les principaux.<br /> Chacun ayant des avantages et des inconvénients et forcément des performances différentes.<br /> Comparer DirectX 11 et Vulkan, forcément les performances ne sont pas les mêmes.<br /> De même qu’entre DirectX 11 et DirectX 12 non plus.<br /> Ensuite chaque interpreteur graphique a aussi des fonctions différentes comme le ray Tracing, certains antialiasing, une gestion différente des caches, des shaders etc…<br /> Au fil des évolutions, de nouvelles fonctions sont apparues et les performances ont parfois chuté drastiquement mais avec une qualité visuelle bien différente.<br /> On sait de sources sûres qu’avec Vulkan les performances sont là et pourtant la prise en charge reste à la marge.<br /> Souvent une option obscure.<br /> Mais les éditeurs continuent pourtant à travailler sous DirectX 11 et 12 par habitude, facilité de programmation etc…<br /> Un article rapide à lire pour comprendre ce qu’est une API.<br /> https://www.malekal.com/directx-vs-opengl-vs-vulkan-lequel-est-le-meilleur/
Fodger
4k, FULLHD on parle déjà de résolution alors ne viens pas me dire que je ne comprends pas c’est une grosse blague…<br /> Une scène 3D en 4k dans un jeu complexe comme cyberpunk prendra plus ressources qu’en fullHD obtenir le rendu, c’est tout à fait logique. Et d’ailleurs tu te contredis, tu l’as compris toi même on affiche beaucoup plus d’éléments.<br /> Pour l’UI ça a peu d’impact, en général 90% des jeux l’adapte et affiche la même chose ou presque.<br /> Pour ce qui est d’un jeu 3D complexe comme CyberPunk, le calcul en 4K est bien plus gourmand qu’en FULL HD car on augmente significativement le nombre de polygones.<br /> Si ce n’était pas le cas, tu n’aurais pas une baisse significative des FPS, donc tu consommes plus de ressources sur ton système (pour beaucoup du GPU mais pas que) c’est d’une logique implacable.<br /> Tu parles d’ignorance, visiblement tu es en plein dedans ton «&nbsp;ryzen vulkan&nbsp;» ne veut rien dire.<br /> Tu mélanges un nom de processeur avec une API 3D qui succède à l’openGL.
Feunoir
Ca je peux tester<br /> Full hd (dlss qualité)<br /> image1920×1080 170 KB<br /> 3080 = 260W<br /> 5900X = 128W<br /> fps 84<br /> 4K (dlss qualité):<br /> image1920×1080 170 KB<br /> Une vielle ampoule de différence sur cette scene<br /> Je m’attendais a avoir + de fps en full hd, j’ai touché qu’a la definition (en enlevant la synchro verticale avant)<br /> Me suis rendu compte alors que j’etais en dlss : un test sans le dlss qualité serait plus logique<br /> En vrai 4K (pas de dlss/fsr…)<br /> image1920×1080 175 KB<br /> Finalement, en vrai full hd (pas de dlss/fsr…)<br /> J’avoue que cela m’etonne un peu moi même, le gpu s’emballe un peu coté puissance<br /> J’ai les même fps que la haut, le dlss se désactive peut être tout seul en full hd? (quoique j’etais a 76% de gpu la haut , comme si j’avais une limite de fps vers 84, peut être du cpu limited en gros)<br /> image1920×1080 170 KB<br />
Fodger
ça serait déjà plus juste de le faire avec et sans DLSS, les performances de l’algorithme ne sont pas linéaires.
CallMeLeDuc
Précise quelle est ma contradiction parceque toi tu ne répond même pas a mon explication.<br /> Toi tu mélange la résolution et le pitch d’un écran…<br /> D’ailleurs il faudrait faire la distinction entre les résolution d’écran TV et de moniteurs qui portent parfois à confusion, mais bon osef atm.<br /> Moi je t’explique et te démontre, que ce que tu dis est faux puisqu’il suffit de constater qu’entre la «&nbsp;Résolution&nbsp;» en 3840x2180 c’est en effet du 4K et le FHD du 1920x1080 en théorie cela quadruple la résolution (bureautique windows) en pratique cela permet d’afficher bien plus sur un écran (en particulier les grandes tailles d’écran, 35" et plus)<br /> Dès de départ j’ai dis que la 4K n’avait presque pas d’intérêt pour des écran de 27" ou moins. Mais je peux te garantir que sur mon écran Oled de 42", je joue a 70cm de lui et grâce à un pitch plus fin et du fait de la résolution en 3840, la différence avec du FHD est INDÉNIABLE !<br /> D’ailleurs bien que l’évidence crève les yeux tu botte en touche en nous parlant sur le fait que la 4K ça pompe plus de ressources que la HD. De fait si la 4K pompe plus de ressource que la HD c’est une preuve de plus que la 4K permet d’avoir une résolution plus grande et plus d’éléments graphiques à l’écran.<br /> Pourquoi pense tu que TOUS les spécialistes de hardware et les fabricants eux même recommandent certaines carte gfx puissante avec bcp de ram pour la 4K ?!<br /> Preuve encore que ce dont tu parle est délirant et faux.<br /> Donc merci Mr Obvious! de ta démonstration comme quoi la 4K consomme plus que la HD. mais sérieux arrête de nous prendre pour des imbéciles, ça arrive de dire une connerie c’est pas grave hein
CallMeLeDuc
Manifestement tu ne prends pas la peine de me lire et de me répondre.<br /> Et puisque manifestement tu ne veux pas écouter ce que les gens t’expliquent peut être que tu sera prêt à croire des studio de dev comme Ubisoft et les journalistes de Tomhardware<br /> # Ubisoft opte pour l’API Vulkan plutôt que DirectX 12 pour son Rainbow Six Siege<br /> La solution API Vulkan privilégiée face à DirectX 12, en raison de meilleurs performances CPU !<br /> https://www.tomshardware.fr/ubisoft-opte-pour-lapi-vulkan-plutot-que-directx-12-pour-son-rainbow-six-siege/<br /> Donc toi qui nous explique que l’API Vulkan n’a aucun impact sur la relation CPU / GPU c’est juste faux, c’est peut être à la marge dans certains jeux moins bien optimisé mais c’est juste Faux.<br /> wala wala…merci au revoir et sans rancune hein :x
Fodger
Bon déjà tu devrais te calmer, à aucun moment je n’ai parlé du pitch.<br /> Le pitch impacte toutes les résolutions, en espérant que tu saches ce que c’est et ce n’est pas ce dont j’ai parlé, si ça peut influer sur le recul (plus le grain est fin moins on a besoin de recul) et la finesse des très ça ne change pas pour autant tes calculs.<br /> Je parle pour les jeux en 3D (eh oui on parle de cyberpunk), ce que tu ne comprends pas c’est que ce n’est pas parce que tu affiches ton jeu en 4K que celui-ci va être nécessairement beaucoup plus détaillé qu’en FULLHD, tout va dépendre du moteur, du modèle (3DS ou autre) des objets etc.<br /> Donc en général oui c’est plus détaillé mais ça ne change pas du tout au tout, d’autant qu’il faut que toutes les textures soient aussi optimisées pour ça et c’est très lourd. Je dis simplement que du coup en action, la différence visuelle est minime, tes objets seront un peu détaillé (encore que) et que l’énergie supplémentaire dépensée ne vaut pas le coup.<br /> Ton coup de 4 écrans FULLHD (pas HD qui fait référence au 720p) pour un jeu 3D du coup ça ne veut absolument rien dire en soit. C’est bien le cas en 2D par contre.<br /> Maintenant si sur un 42" avec seulement 70 cm (alors qu’il faut un bon mètre pour apprécier l’image dans son ensemble) de recule et tu vois une différence indéniable entre le 4K et le FULLHD sur un jeu comme CyberPunk, alors moi je dis bravo car tu as sans doute les gènes d’une mouche ou tu es très sensible au marketing et tu essayes de te rassurer en te disant que tu as bien fait.<br /> Pour le reste si tu n’est pas capable de comprendre qu’un jeu 3D en 4K comme Cyber consomme nettement plus qu’en FULLHD, alors que le simple test de @Feunoir le montre nettement, ben je peux rien pour toi il faut retourner à l’école.
Fodger
Il a jamais dit que ça n’avait pas d’impact, tu aimes les propos fallacieux visiblement.<br /> Il a dit simplement que comparer DX11 et Vulkan est un peu biaisais du fait que Vulkan est une API plus moderne comme DX12.1.<br /> Vulkan est une excellente API, mais il a raison sur le fait que DX12 est encore plus utilisé sous Windows (avec la proximité de la XBOX) parce plus répandu chez les devs. C’est tout, c’est du pragmatisme.
Feunoir
J’ai edité mon post de test au dessus, il est plus precis sur le test qui est fait<br /> C’est une fois rédigé la première partie que j’ai vu que le dlss était actif.<br /> Beaucoup de paramètre graphiques du jeu sont au maximum, qq trucs qui font du flous ou le grain de pellicule sont sur off<br /> Les effets RT? il n’y a que le reflet.<br /> Je pense que je suis CPU limited sur le premier test, en full hd dlss au vu du gpu a 76%.<br /> Peut être en equilibre cpu/gpu en full hd<br /> Et évidement gpu limited en 4k , et peut être que la vram 10go sature quand même un peu sans le dlss
Fodger
Évidemment, reste qu’il n’y a pas de magie et on voit bien que la consommation augmente significativement c’est tout à fait logique.
wackyseb
Comme t’as très bien répondu @Fodger , je ne nie pas les performances supérieures de Vulkan dans certains cas. Le choix des Dev en est un autre.<br /> J’ai des jeux où il n’y a aucune amélioration à passer sous Vulkan, d’autres oui.<br /> Je t’ai déjà répondu et t’ai mis un petit lien tout mignon.<br /> CallMeLeDuc:<br /> toi qui nous explique que l’API Vulkan n’a aucun impact sur la relation CPU / GPU c’est juste faux<br /> Je me lève et je te confirme qu’il n’y a aucun lien couple CPU/GPU.<br /> Vulkan étant plus moderne, il permet d’accroitre les performances en utilisant plus de cœurs.<br /> Que tu sois sous processeur AMD ou Intel n’y change strictement rien, plus il y a de cœurs, mieux c’est. Donc oui sous Ryzen 12 cœurs - 24 Thread, forcément la charge est mieux répartie.<br /> Mais les derniers Intel reviennent dans la course avec des Cœurs toujours plus performant et maintenant hétérogène → justement pour DirectX 12.1 - Des cœurs ultra rapide pour les taches gourmandes dont les jeux et des cœurs moins rapides mais aussi moins énergivores et plus nombreux pour des tâches qu’on peux paralléliser facilement.<br /> Du coup, est-ce que Vulkan marche mieux avec pleins de coeurs identiques ou avec des CPU hétérogènes, je ne sais pas.<br /> Après j’ai jamais eu de processeurs qui dépassent les 20-35% sous un jeu. J’ai 32Go de RAM, çà doit aider aussi.<br /> Les mensonges commerciaux aussi sont légions comme un couple Ryzen avec GPU AMD ne fait pas gagner de FPS parceque les 2 sont AMD. C’est faux également.<br /> C’est juste pour dire que çà prend parfaitement en charge DirectStorage (Intel et Nvidia aussi le font)<br /> Donc après c’est juste des choix.<br /> J’ai très longtemps été Intel pour le CPU, là je suis sous Ryzen 9 3900x et Nvidia 3080 12Go.<br /> Parcequ’il n’y a pas que le jeu, j’ai besoin d’un processeur solide pour d’autres taches.<br /> Par contre Carte graphique AMD, çà fait très très longtemps que j’ai laissé tombé comme une grande majorité d’après les Statistiques STEAM<br /> Pour finir, les résultats Vulkan Benchmark de Geekbench tous réalisés avec un Intel Core i7-12700 pour ne pas biaiser les valeurs.<br /> Suivant ta carte graphique, lance un test avec ton PC et ton processeur pour voir où tu te situes.<br /> Moi je devais être à 151887 si CPU Intel 12700 mais avec mon Ryzen plus âgé, je suis à 149508<br /> Mon CPU score 1756 - Single-Core et 11143 - Multi-Core<br /> Le 12700 Intel score 2507- Single-Core et 10425 - Multi-Core<br /> https://browser.geekbench.com/vulkan-benchmarks
gallean
donc du 1440p/du 1080p ou du 4k c’est pareil pour toi ?
Fodger
Je dis simplement que sur un écran de taille lambda, avec toutes les options activées le 4k ne change pas grand chose dans un jeu comme CyberPunk.<br /> Il n’y a en réalité que peu de de détails en plus, et avec les mouvements l’œil atténue de lui même encore plus ces différences.
gallean
je ne parle pas de mouvement, de toutes façons les cartes actuels en 4k iront pas au delà de 60fps.<br /> au niveau colorimétrie, si j’ai pu voir la différence entre mon 32hx750 et mon hp75q en 1440p 75hz, c’est un tout hein
Fodger
Ah bon parce que tu ne joues pas avec quand tu lances le jeu ?<br /> En plus tu parles de colorimétrie, je te parle de détails perçus à configuration et options égales.<br /> J’ai aussi un moniteur FULLHD qui fait du 10 bit par canal, ça n’a rien de nouveau.<br /> Tu peux te rassurer autant que tu veux mais sur un écran de taille moyenne, le 4k pour le jeu n’apporte en général pas grand chose dans la perception du rendu. Ah si, faire vendre des GPUs et des écrans (croissance illimité mortifère).
gallean
a 4k m’intéresses pas, concrètement je joue en 1440p depuis la 1070Ti, c’est plus que suffisant pour moi (de toutes manières, comme dit plus haut, les cartes gérant plus que 60fps en 4k se comptent sur les deux doigts d’une main)…<br /> et si j’ai lancé le jeu, fin pas depuis la 2.0, mais au dernier benchmark ça reste plus que stable donc rien à signaler, jusqu’à présent c’est toi qui reste bloqué sur la 4k, perso le 1440p me va très bien…<br /> et pour info le 10bit c’est pas nouveau hein, j’ai des moniteurs en 13w3(sgi) qui ont plus de 20 ans et qui le font déjà.<br /> pour info ma config :<br /> 5950x/3070 ti/2 SSD nvme (1To pour windows 11, 2To windows 10+install des jeux)<br /> que j’aime pas windows 11…
Voir tous les messages sur le forum
Haut de page

Sur le même sujet