Diablo IV en Ultra 4K, ça vous tente ? Accrochez-vous, les specs officielles sont là

25 avril 2023 à 13h00
40
© Blizzard
© Blizzard

À plus ou moins un mois de la sortie de Diablo IV, Blizzard s'est fendu des dernières informations en date relatives aux specs requises sur PC.

Après avoir détaillé les configurations nécessaires pour profiter de la bêta ouverte, cette liste a été mise à jour en amont de la nouvelle bêta ouverte dite « server slam » qui devrait utiliser la même build que celle du lancement le 6 juin.

Le Tourment de l'Ultra 4K

Du 12 au 14 mai, Blizzard invite tous les héros de Sanctuaire à faire chauffer les serveurs de Diablo IV comme s'ils étaient littéralement en Enfer. L'équipe va en profiter pour faire chauffer nos PC avec la dernière build en date du jeu qui embarque des paramètres supplémentaires comme le DLSS 3.

À ce titre, voici en premier lieu la configuration PC recommandée permettant de profiter du jeu en Ultra 4K :

Configuration Ultra 4K (60 fps avec graphismes en ultra)

  • Système d'exploitation : Windows 10 64 bits version 1909 ou plus récente ;
  • Carte graphique : RTX 3080 (RTX 4000 pour le DLSS 3) ou Radeon RX 6800 XT ;
  • Processeur : Intel Core i7-8700K ou AMD Ryzen 7 2700X ;
  • Mémoire vive : 32 Go ;
  • Espace requis : 90 Go (SSD vivement recommandé) ;
  • DirectX : version 12 ;
  • Internet : connexion permanente obligatoire.

Une configuration pour le moins gourmande, comme il est de coutume pour jouer en 4K.

© Blizzard
© Blizzard

Mise à jour du stuff légendaire requis

Blizzard en a profité pour mettre à jour les configurations requises pour profiter du jeu en 1080p. Par rapport aux specs préconisées pour la bêta ouverte, nous constatons quelques changements, et pas nécessairement dans le bon sens du terme.

Configuration minimale requise (30 fps en 1080p native, rendue en 720p, avec graphismes en faible)

  • Système d'exploitation : Windows 10 64 bits version 1909 ou plus récente ;
  • Carte graphique : GTX 660 ou Radeon R9 280 ;
  • Processeur : Intel Core i5-2500K ou AMD FX-8350 ;
  • Mémoire vive : 8 Go ;
  • Espace requis : 90 Go (SSD recommandé) ;
  • DirectX : version 12 ;
  • Internet : connexion permanente obligatoire.

Ici, pas de changement par rapport aux recommandations pour la bêta ouverte. En revanche, la configuration recommandée pour jouer en 1080p à 60 fps avec les graphismes en élevé est devenue celle recommandée pour obtenir les mêmes résultats, mais avec les graphismes en moyen.

Configuration moyenne requise (60 fps en 1080p avec les graphismes en moyen)

  • Système d'exploitation : Windows 10 64 bits version 1909 ou plus récente ;
  • Carte graphique : GTX 970 ou Radeon RX 470 ;
  • Processeur : Intel Core i5-4670K ou AMD Ryzen 1300X ;
  • Mémoire vive : 16 Go ;
  • Espace requis : 90 Go (SSD vivement recommandé) ;
  • DirectX : version 12 ;
  • Internet : connexion permanente obligatoire.

Configuration élevée requise (60 fps en 1080p avec les graphismes en élevé)

  • Système d'exploitation : Windows 10 64 bits version 1909 ou plus récente ;
  • Carte graphique : RTX 2060 ou Radeon RX 5700 XT ;
  • Processeur : Intel Core i7-8700K ou AMD Ryzen 2700X ;
  • Mémoire vive : 16 Go ;
  • Espace requis : 90 Go (SSD vivement recommandé) ;
  • DirectX : version 12 ;
  • Internet : connexion permanente obligatoire.

Cela tombe sous le sens, mais va mieux en le disant : Blizzard précise que les machines ne cochant pas les cases de la configuration minimale requise et équipées d'un disque dur ainsi que d'un processeur deux cœurs « devraient » pouvoir faire tourner Diablo IV, mais avec une « expérience significativement diminuée ».

Nous pourrons en tout cas mettre nos PC à l'épreuve des hordes démoniaques de Lilith du 12 au 14 mai pour avoir un avant-goût de ce qui nous attend le 6 juin sur la suite très attendue de cette franchise iconique.

Source : Blizzard

Robin Lamorlette

Fan absolu de tech, de films/séries, d'heroic-fantasy/SF et de jeux vidéos type RPG, FPS et hack&slash qui se shoote à coups de lore sur Star Wars, The Witcher, Cyberpunk, Game of Thrones et Donjons &...

Lire d'autres articles

Fan absolu de tech, de films/séries, d'heroic-fantasy/SF et de jeux vidéos type RPG, FPS et hack&slash qui se shoote à coups de lore sur Star Wars, The Witcher, Cyberpunk, Game of Thrones et Donjons & Dragons/Baldur's Gate 3.

Lire d'autres articles
Vous êtes un utilisateur de Google Actualités ou de WhatsApp ? Suivez-nous pour ne rien rater de l'actu tech !
google-news

A découvrir en vidéo

Rejoignez la communauté Clubic S'inscrire

Rejoignez la communauté des passionnés de nouvelles technologies. Venez partager votre passion et débattre de l’actualité avec nos membres qui s’entraident et partagent leur expertise quotidiennement.

S'inscrire

Commentaires (40)

JohnLemon
La configuration 4K Ultra est évidemment colossale mais, à l’opposé, il est impressionnant de voir qu’un 2500K suffit théoriquement à lancer le jeu en minimal.<br /> C’est quand même un processeur qui date de 2011, sorti alors que la PS3 avait encore 2 ans avant l’arrivée de sa remplaçante. Histoire de contextualiser un peu.<br /> Évidemment je doute qu’on puisse faire grand chose de fluide dans ces conditions, mais ça force quand même le respect.
dredre
ça a toujours été comme ça avec Blizzard, des configs mini vraiment mini afin d’avoir l’audience la plus large possible.
solistice
Le plaisir de casser du monstre en 4k n’a pas de prix
SympathixLeGaulois
Un peu « déçu » de la 4K lors du beta test, j’avais l’impression de jouer en 1080P sur un écran 4K, je m’attendais à plus de finesse.
Morlac
Franchement la config 4K, pour ce que le jeu affiche, c’est abusé
Drulhox
Tu dois afficher littéralement 4 fois plus de pixel qu’en 1080p, il faut garder ça a l’esprit. (Pour ceux qui trouve la 4k abusé) Perso 1440p - 165hz un entre deux carrément plus worth que du 4k - 60 comparé au changement que ça procure en jeu. Sinon content de voir que blizzard optimisé toujours aussi bien, ça fait plaisir aujourd’hui
LeChien
Ma limite en résolution tient davantage de l’espace physique que je réserve à l’écran (22" question largeur) que de la conf CPU/GPU que je pourrais consentir à monter.<br /> Mais du coup je fais mécaniquement des économies…<br /> Je n’apprécie que moyennement le choix de Blizzard d’ouvrir son stress test pile le week-end où TOTK sera jouable… Si on veut vraiment avoir masse joueurs, on évite une telle date.<br /> Donc réel besoin de stress test ou moyen détourné utilisé pour rester en haut de la liste du fil d’actu ?
Pernel
32 Go de RAM pour un jeu ? ça devient vraiment n’importe quoi.
LeChien
Ça me semble être un non sujet… Est-ce que ça a un sens d’avoir moins que 32 dans une conf de ce niveau ?<br /> Moi même je suis passé à 32 quand j’ai remplacé la combo gagnante mobo, cpu, mémoire il y à quelques semaines. Je sais que je suis peinard pour longtemps.
Pernel
Bah c’est pas vraiment ça la question, les jeux même gros n’utilisent déjà quasiment jamais plus de 12Go de RAM, Diablo c’est pas vraiment censé être gourmand, enfin pas tant que ça, c’est juste qu’ils ont la flemme d’optimiser. À ce rythme-là on demandera 64Go pour GTA 6, c’est juste abusé. Le jeu tourne sur console, certes optimisé (normalement), consoles qui ont moins de 16Go de RAM allouée aux jeux (RAM réservée pour le système, RAM dédié à l’iGPU et RAM « jeux », ça doit faire à peine 8 voir 10Go max pour les jeux).<br /> C’est abusé comment les devs ont la flemme, les jeux font 150Go, commencent déjà à demander 32Go de RAM alors que 16 suffiraient largement, etc.
LeChien
C’est le même discours depuis des années, non, depuis tjrs… Sur fond de « les dev qui ne se fatiguent pas ».<br /> Quand j’ai acheté un disque dur dont l’unité de taille n’était plus le Mo (c’était un 1 Go), les réactions étaient exactement les mêmes : c’est n’importe quoi, qu’est-ce que tu vas faire avec ça ?<br /> Pareil quand j’ai changé mon stockage IDE par un disque SCSI parce que mon usage ramait qd même fort à gros coups de swap.<br /> Aujourd’hui on ne jure plus que par le stockage SSD… Avec le SATA qui cède doucement la place au pcie.<br /> Et ben c’est pareil avec la mémoire… En taille et en techno.
Pernel
Non, il y a une différence entre passer de 8Go à 12Go et de 12 à 32Go.
Stellvia
Le jeu est pas non plus hyper beau, 32g de ram et 3080 j ai un peu de mal à comprendre…
LeChien
Fichtre, les cadors de l’argumentaire sont de sortie.
TNZ
Je vois ça … et ils sont pathétiques à défendre corps et âmes un avis qui tient plus d’une approche console de jeux que d’une approche outil informatique. Visiblement, ils ne savent pas utiliser leur ordinateur, mais il leur faut quand même mettre leur 2 centimes de jus de cerveau sur le tapis en espérant que cela soit intéressant.<br /> Avec un peu de chance, certains pourraient faire youtubeur.
tommythefreak
Un jour j’ai pu comparer un 27" 2160p Gsync 60hz avec un 27" 1440p Freesync 144hz. J’ai comparé sur Doom pour vraiment mettre en valeur la fluidité de mouvement. C’est purement subjectif bien sûr, mais selon moi, la différence de finesse et de détail entre 1440p et 2160p était bien plus remarquable que la différence de fluidité. Je devais vraiment bouger ma souris très rapidement pour voir une différence de fluidité. La qualité de l’écran joue aussi, mon écran en 60hz a très peu de rémanence. Aujourd’hui je suis sur un OLED 2160p 120hz. Est-ce que je sens une différence par rapport au 60hz? oui bien sûr mais ce n’est pas le jour et la nuit. Le plus impressionnant c’est la qualité d’image et le contraste de l’OLED. Je préfererais un 60hz OLED 2160p que n’importe quel autre techno en 144hz.
tommythefreak
Comme d’habitude, le mode ultra est fait pour les benchmarks et les passionnés. Cracher sur les devs parce que le mode ultra est exigeant ça a toujours été et sera toujours un non sens: c’est exactement le but. Et encore, de nos jours on oublie qu’il y a encore 10 ans, les modes ultra des jeux AAA étaient injouables avec le matos de l’époque.<br /> Il suffit de regarder des comparatifs entre les différents modes graphiques pour s’en convaincre. Un jeu en 2160p en medium ou high avec les textures au max donnera toujours bien mieux qu’en 1080p ultra.
StephaneGotcha
D’une façon générale, je ne trouve pas qu’une 3080 pour du ultra 4k soit une configuration gourmande.<br /> MAIS, on ne parle pas de CyberPunk ou du futur portage PC de Horizon Forbidden West, et pour du Diablo, oui, c’est trop haut pour ce que c’est.<br /> Elle détonne en tout cas des autres configs, notamment la mini qui nous ramène loin dans le passé!<br /> A titre personnel je suis content de voir ma vieille GTX 970 dans la config moyenne
Pernel
Quel rapport entre l’utilisation de son ordinateur et le fait qu’un jeu soit plus gourmand qu’il ne devrait ? Les jeux optimisés sont assez rares (Forza est un très bon exemple de jeu très bien optimisé). Qu’un jeu soit gourmand n’est pas un problème s’il le justifie d’un point de vue technique (graphismes, map, physique etc), mais un jeu techniquement moyen qui demande plus de ressources que d’autres bien plus poussés est une preuve de non-optimisation.
TNZ
D’où je parle d’optimisation ?<br /> Je parle d’adéquation de la config avec l’utilisation faite en dehors de jeux. Hors la plupart des kikitoudurs qui se la pètent avec le dernier truc à la mode qui sort des perfs jamais vues en descente avec le vent dans le dos ne savent pas les utiliser. C’est pareil avec les voitures de sport, 99% n’ont jamais de compétition.<br /> Bref, le débat 16 ou 32 Go de RAM est nul car les machines ne seront pas toutes utilisées de la même façon. A vrai dire, 24 Go de RAM c’est bien aussi !<br /> (2 tunes dans le bastringue)
Drulhox
Le fait que tu l’es fait sur un FPS me rassure. Je comprends ton point de vue mais ne partage pas du tout, pour moi le 60hz lag (vraiment beaucoup), souris en main, impossible pour moi de jouer en cette fréquence quite a jouer en 720p, vraiment.<br /> Mais pour le coup, j’ai tendance à mettre plus de qualité graphique sur RPG/MMORPG quite à réduire un peu les hertz, 90fps me paraît être un minimum. Je pense que c’est surtout une question d’habitude. Joue 4/5ans à des FPS sur une dalle 120hz+ et reviens sur un 60. Tu n’en reviendra pas
Pernel
Bah peut-être que c’est ce dont je parle DEPUIS LE DÉBUT !!!<br /> Si tu contredis quelqu’un sans savoir de quoi il parle, on est mal barré…
TNZ
Je ne te parle pas, je répondrai à LeChien.<br /> Faut arrêter la parano !
Pernel
Relis un peu les commentaires, ça va t’aider…
TNZ
Je confirme, je ne parle pas de tes argumentaires … d’ailleurs j’ai du mal à comprendre pourquoi tu m’interpelles. Mais ce n’est pas grave … bonne journée !
Pernel
Pratique…
Fodger
Le 4K n’apporte vraiment par rapport au FULL HD largement suffisant, et ça consomme 70% de ressources en moins.
hellraisercom
Lorsqu’en 2001 j’ai acheter une seconde barrette de 128Mo, pour avoir 256Mo, mes potes me traité de cinglé… que cela ne me servirai jamais a rien. … jamais…
Pernel
Aucun rapport …<br /> Je ne parle pas du fait d’avoir besoin de plus de RAM, mais du fait que c’est optimisé avec le c*l. Si demain un jeu sort et demande une 4090 et 64Go de RAM pour tourner en 1080p tu vas trouver ça normal peut-être ?
Palou
Hier, les jeux demandaient un Pentium et une CG S3 ou Matrox, cela s’appelle l’évolution
Pernel
On appelle ça le manque d’optimisation ici…
hellraisercom
Donc, tu affirmes que tu serais capable, s’il etait bien optimiser, de faire tourner avec la qualités « tout a fond », on va prendre comme exemple « Cyberpunk 2077 » sur un Pentium et une CG S3 ou Matrox ?
Pernel
Euh pas du tout. Il tourne très bien chez moi mais c’est pas du tout le sujet en fait.<br /> SadRaven:<br /> « Cyberpunk 2077 » sur un Pentium et une CG S3 ou Matrox ?<br /> C’est quoi cette comparaison débile ? Tu penses être crédible avec ce genre «&nbsp;d’arguments&nbsp;» ? C’est raté.
Blackalf
SadRaven:<br /> Donc, tu affirmes que tu serais capable, s’il etait bien optimiser, de faire tourner avec la qualités «&nbsp;tout a fond&nbsp;», on va prendre comme exemple «&nbsp;Cyberpunk 2077&nbsp;» sur un Pentium et une CG S3 ou Matrox ?<br /> Pourquoi partir à l’extrême ? il ne fait aucun doute qu’il y a des jeux vraiment très bien optimisés, par exemple Doom 2016 qui tournait parfaitement toutes options en Ultra sur ma vieille cg R9 280X 3 Gb équivalente à une GTX 770, alors que les cg recommandées étaient des GTX 970/R9 290 4 Gb. ^^
Palou
SadRaven:<br /> Donc, tu affirmes que tu serais capable, s’il etait bien optimiser, de faire tourner avec la qualités « tout a fond », on va prendre comme exemple « Cyberpunk 2077 » sur un Pentium et une CG S3 ou Matrox ?<br /> Si tu relis la phrase initiale plutôt que de faire un raccourci qui t’arrange, cela ira mieux, surtout le 1er mot que tu as oublié de citer : Hier <br /> Palou:<br /> Hier, les jeux demandaient un Pentium et une CG S3 ou Matrox, cela s’appelle l’évolution<br />
hellraisercom
Chers Messieurs, @Pernel<br /> Mon postula de base est l’évolution du matériels.<br /> Avec le discours de M @Pernel on serait toujours avec du matériels a la hauteur d’un commodore 64.<br /> Ce que je veux dire, c’est que l’évolution des jeux vidéo entraine les besoins en ressources, et que l’évolution du matériels incite les devs a pousser graphiquement leur jeux.<br /> Si le matériels n’avait pas évoluer en terme de techno et de capacité, les jeux ne serai pas aussi beau actuellement.<br /> On ne pourrait pas jouer a Elden Ring / Cyberpunk 2077 / etc. paramétré au minimum en élevé si nous n’avions pas le matériels adéquate.<br /> Quand je parle de mon achat d’une barrette de 128Mo, a l’époque j’ai eu la même réflexion que M @Pernel, comme quoi cela ne servirai jamais a rien seulement a poussé les devs a ne pas optimiser leur codes, sauf qu’aujourd’hui, 256Mo de RAM c’est impensable pour faire tourner un jeu récent AAA.<br /> Une config avec 64Go de RAM aujourd’hui peut semblé aberrante, mais dans 10 ans ce sera peut-être la norme, voir même le minimum vu l’OS (imaginer une seconde essayé de faire tourner w10 sur une config avec 256Mo de RAM, qui paraissaient folle en 2001) ou les jeux qui sortiront, et cela n’a rien a voir avec l’optimisation.<br /> Je ne dis pas que certaines teams de devs ne sont pas des gros sagouin et font n’importe quoi, je dis juste de ne pas penser que tout cela a une limite. Il est toujours possible de faire plus beau.
Pernel
Non pas du tout (visiblement ici les gens ne lisent jamais ce qu’on dit même si on le dit plusieurs fois).<br /> Seulement même les gros jeux actuels, qui sont déjà ultra-gourmand n’ont pas besoin d’autant de RAM, comment un jeu comme Diablo peu en demander autant ? La réponse est simple pourtant.<br /> Quand un jeu demande un gros GPU tout le monde dit « c’est mal opti » par contre quand c’est la RAM on ne doit pas être étonné qu’un jeu qui ne devrait pas être aussi gourmand le soit…<br /> Le jeu sort en plus sur consoles, consoles qui n’ont « que » 16Go partagées avec l’iGPU, donc probablement 10Go système…
hellraisercom
Ah non, je ne m’arrête pas a la RAM, mais bien a tout le matériel, je n’ai jamais dis qu’il ne fallait simplement que beaucoup de RAM pour faire tourner un jeu triple A.<br /> Comparer un PC multitâches et une console optimisé pour le jeu et un peu léger. Regarde les portage PS/PC, « Horizon Zero Dawn » par exemple, sur console du coup tout a fond, il tourne bien en 4K, pourtant quand tu regardes sa config recommander sur PC, il indique 16Go pour du 1080p !? Pourtant le jeu n’a pas subit une refont graphique comme « The Last Of Us Part I » sortie sur PS3.<br /> Je réaffirme mes dires, sans l’évolution des technos et l’augmentation des capacités des ressources, les jeux ne seraient pas aussi beau aujourd’hui. Tu pourras optimiser autant que tu veux le code de Diablo IV, il ne tournera jamais sur un PC de 2001. Arrêtez de vous limiter a aujourd’hui, les prochaines technos et demande en ressource des futurs jeux dans 10 ans ridiculiseront le matériel que l’on a aujourd’hui.
Pernel
SadRaven:<br /> je n’ai jamais dis qu’il ne fallait simplement que beaucoup de RAM pour faire tourner un jeu triple A.<br /> Personne n’a dit ça.<br /> SadRaven:<br /> Regarde les portage PS/PC, « Horizon Zero Dawn » par exemple, sur console du coup tout a fond, il tourne bien en 4K, pourtant quand tu regardes sa config recommander sur PC, il indique 16Go pour du 1080p !?<br /> Pas 4K natif, checkerboard rendering avec un poil de flou en arrière-plan (pour favoriser le framerate). Oui 16Go, parce que le jeu prend environ 10Go en 4K, ils n’allaient pas mettre «&nbsp;10go recommandé&nbsp;» vu que tout le monde à 16Go minimum (tous les gamer en tout cas).<br /> SadRaven:<br /> Je réaffirme mes dires, sans l’évolution des technos et l’augmentation des capacités des ressources, les jeux ne seraient pas aussi beau aujourd’hui. Tu pourras optimiser autant que tu veux le code de Diablo IV, il ne tournera jamais sur un PC de 2001. Arrêtez de vous limiter a aujourd’hui, les prochaines technos et demande en ressource des futurs jeux dans 10 ans ridiculiseront le matériel que l’on a aujourd’hui.<br /> Donc tu n’as absolument rien lu de ce que j’ai écrit c’est pas possible autrement. Un mix entre mauvaise foi et ridicule, chapeau.
twist_oliver
Ultra 4K ? hum Ultra «&nbsp;KK&nbsp;» comme terme oui.<br /> Plus sérieusement on parle de 4K ou Ultra HD (UHD)…
Voir tous les messages sur le forum
Haut de page

Sur le même sujet