je vois bien les problèmes de performances mais où est la bonne nouvelle? ![]()
On va tranquillement attendre que ça se décante hein…
Souffler un grand coup pour ne pas faire grand-chose ça s’appelle du vent ^^
En fait le driver ne fait que de force le ReBar quand il pense que c’est profitable.
Sauf que pour 99% des gens, le comportement d’avant était deja le bon, donc pas de changement.
La réalité est que pour avoir un jeu qui tourne vraiment au poil, il faut bosser avec les constructeurs de chip graphique, BGS ne l’a pas fait avec nVidia, donc c’est la loose.
Digital Foundry ont reporté une pénalité de 40% avec des chip nVidia (on ne parle meme pas de DLSS versus FSR), ce pb ne pourra être fixé que le jour où BGS et nVidia auront bossé ensemble.
Cela dit, chez moi le jeu tourne bien sur ma workstation (grosse machine) et sur mon laptop G14 (avec une 3060 for laptop).
Le jeu pourrait etre plus optim pour PC? Oui.
Est ce que ca passe? Quand meme oui.
Je tourne à 30fps sur New Atlantis, je vais pouvoir souffler avec les 5% de perfs en plus (1 fps et demi quand même).
Blague à part c’est toujours bon à prendre
Pour une fois que c’est AMD qui tire son épingle du jeu, et pas Nvidia…
Sur mon Legion et sa GTX 1060, disons que l’expérience est… bon ok, je vais changer de PC j’ai compris…
Et la série 2000 dans tout ça ???
Et les mecs ! C’est un jeu Bugthesda hein ! Donc le jeu doit être très bien (comme les Fallout) mais il faut attendre des mois/années de patch avant, c’est toujours comme ça avec eux. Aucune surprise a ce niveau.
Dommage, il a le même symptôme que le jeu qui m’a fait passé d’une GF630GT à une GF960GTX.
Il s’appelait Strife… Aucune différence… (J’ose pas le lancer depuis Steam avec ma nouvelle config CPU+GPU cette fois ci.)
Je comprend pas la critique du CPU peu utilisé. Cela ressemble à de l’optimisation de modder. Donc probablement un autre moteur graphique ou une méthode de DEV peut-être très différente.
Je regarderai plutôt le côté parallélisation des tâches 3D et ordonnançant la 3D. Même avec les drivers les plus optimisé et une optimisation de rendu graphique via un profil, si c’est pas bon là, c’est forcément dans le code source/bibliothèque/librairie ou compilateur/linker.
Autre possibilité, la gestion mémoire peut-être une plaie sur NVidia, alors que c’est nettement plus souple sur AMD (une optimisation NVidia marche pas trop mal sur AMD contrairement à l’inverse). Si Bethesda n’a pas prévu d’optimiser pour NVidia la gestion mémoire, ça va être compliqué d’avoir des perfs équivalente sur les 2 architectures…
C’est assez surprenant la différence de traitement des joueurs en fonction des éditeurs. CD Project Red a presque fini sur le bucher après avoir sorti un Cyberpunk 2077 mal terminé et a même dû sortir le chéquier.
A coté de ça, Bethesda a droit à des « Bof, c’est Bethesda, c’est normal » ou encore « ce sera très bien dans un an, on est pas pressé » et même « c’est tellement moins bugué que les autres fois, bravo Bethesda ». ![]()
J’avoue que ça me dépasse. ![]()
@pecore : c’est normal par exemple,
Le rédacteur est je cite « un grand fan des jeux Bethesda » donc c’est mielleux comme article. Todd a menti : verbe mentir … Faut le dire !
Pour un ou deux paysages sympa tous les graphismes sont pétés avec une mention spéciale aux PNJ qui sont morts interieurement.
Perso je le trouve fade jusqu’aux éclairages… C’est le moteur OK mais ça reste fade
Et le pompon c’est ce partenariat AMD qui donne un jeu sorti qu avec des opti AMD et rien du coté NVIDIA et intel
Alors comme d hab c’est la commu qui va tout refaire : UI, inventaire, graphisme jusqu’aux upscalers… Et NVIDIA qui travaille a la place de l’éditeur
Quant à l’article sur « aller dans la console, taper du code, pour sortir de son vaisseau dans l’espace » !!! Wtf ![]()
![]()
Allez un peu de courage : ce jeu (avec une histoire à la Bethesda cad bien) est tout pété et daté de 15 ans techniquement… Donc il faut attendre 2-3 ans pour y jouer avec les mod et les bon drivers et prions avec un patch éditeur si Todd descend de son nuage
Les 2 cas que tu cites sont très différents. Pour Cyberpunk il n’y avait quasiment pas de bug sur PC day one, ou très peu. Ils se sont pris un torrent de rage à cause des versions consoles qui étaient injouables.
Starfield ne souffre pas des mêmes problèmes que Cyberpunk consoles à sa sortie.
Tu sous entends que ce sont les consolistes qui sont des rageux et que tant qu’eux ne se sentent pas trop floués, le reste peut passer ?
Je ne sous entend rien, je présente des faits. Les interprétations débiles de ce genre je m’en balec.
Bonjour,
C’est sympathique de me citer. Ce qui l’est un peu moins en revanche c’est d’omettre volontairement la fin de cette même phrase qui affirmait que mon affection pour leurs jeux ne les rendait pas incritiquable. Un peu d’honnêteté dans votre argumentaire, ne serait pas un mal.
Je suis le premier à dire que Starfield a des problèmes et que M. Howard a clairement botté en touche en plus de prendre la communauté des joueurs de haut lorsqu’on lui parlait d’optimisation.
Donc je suis d’accord avec vous, le parti pris de Bethesda à la David Good Enough dans le style "On s’en fiche la commu de moddeurs va assurer derrière commence vraiment à être indigeste.
Bonne journée !
Il y a des chances, oui. Mais comme d’expérience on retrouverait le problème ailleurs, je mets tout de même un grand point d’interrogation.
Je crois que les jeux de stratégie/tactique ou même de course utilisent plus le CPU, notamment Age of Empire chez Microsoft Studio, Age of Mythologie et quelques NFS et Command & Conquer chez EA. Je compte pas les mise à jour intempestive et autres MAJ ou Tâches en arrière plan. Rien que le chargement de jeux.
Oui, chaque jeux utilisés ont fait l’objet d’une étude, même lors d’un usage sans reproche (au lieu de l’être surtout quand c’est sans reproche). C’est vrai que les jeux cités commence à dater, mais aussi que parfois le nombre d’objets et de " détails " est si « élevé » que c’est pas surprenant.
Le problème n’apparait pas souvent car le plus souvent, c’est NVidia qui « sponsorise » les jeux! ![]()
Comme ils fournissent du support rapproché (souvent même directement du code), ça pénalise un peu AMD mais ça passe. Quand c’est AMD qui fait la même chose, ça peut générer plus facilement des gros problèmes coté NVidia.
« Souffler un grand coup »
« augmente les performances en jeu d’environ 5 % «
Hum, comment dire…