À plus ou moins un mois de la sortie de Diablo IV, Blizzard s’est fendu des dernières informations en date relatives aux specs requises sur PC.
La configuration 4K Ultra est évidemment colossale mais, à l’opposé, il est impressionnant de voir qu’un 2500K suffit théoriquement à lancer le jeu en minimal.
C’est quand même un processeur qui date de 2011, sorti alors que la PS3 avait encore 2 ans avant l’arrivée de sa remplaçante. Histoire de contextualiser un peu.
Évidemment je doute qu’on puisse faire grand chose de fluide dans ces conditions, mais ça force quand même le respect.
ça a toujours été comme ça avec Blizzard, des configs mini vraiment mini afin d’avoir l’audience la plus large possible.
Le plaisir de casser du monstre en 4k n’a pas de prix
Un peu « déçu » de la 4K lors du beta test, j’avais l’impression de jouer en 1080P sur un écran 4K, je m’attendais à plus de finesse.
Franchement la config 4K, pour ce que le jeu affiche, c’est abusé
Tu dois afficher littéralement 4 fois plus de pixel qu’en 1080p, il faut garder ça a l’esprit. (Pour ceux qui trouve la 4k abusé) Perso 1440p - 165hz un entre deux carrément plus worth que du 4k - 60 comparé au changement que ça procure en jeu. Sinon content de voir que blizzard optimisé toujours aussi bien, ça fait plaisir aujourd’hui
Ma limite en résolution tient davantage de l’espace physique que je réserve à l’écran (22" question largeur) que de la conf CPU/GPU que je pourrais consentir à monter.
Mais du coup je fais mécaniquement des économies…
Je n’apprécie que moyennement le choix de Blizzard d’ouvrir son stress test pile le week-end où TOTK sera jouable… Si on veut vraiment avoir masse joueurs, on évite une telle date.
Donc réel besoin de stress test ou moyen détourné utilisé pour rester en haut de la liste du fil d’actu ?
32 Go de RAM pour un jeu ? ça devient vraiment n’importe quoi.
Ça me semble être un non sujet… Est-ce que ça a un sens d’avoir moins que 32 dans une conf de ce niveau ?
Moi même je suis passé à 32 quand j’ai remplacé la combo gagnante mobo, cpu, mémoire il y à quelques semaines. Je sais que je suis peinard pour longtemps.
Bah c’est pas vraiment ça la question, les jeux même gros n’utilisent déjà quasiment jamais plus de 12Go de RAM, Diablo c’est pas vraiment censé être gourmand, enfin pas tant que ça, c’est juste qu’ils ont la flemme d’optimiser. À ce rythme-là on demandera 64Go pour GTA 6, c’est juste abusé. Le jeu tourne sur console, certes optimisé (normalement), consoles qui ont moins de 16Go de RAM allouée aux jeux (RAM réservée pour le système, RAM dédié à l’iGPU et RAM « jeux », ça doit faire à peine 8 voir 10Go max pour les jeux).
C’est abusé comment les devs ont la flemme, les jeux font 150Go, commencent déjà à demander 32Go de RAM alors que 16 suffiraient largement, etc.
C’est le même discours depuis des années, non, depuis tjrs… Sur fond de « les dev qui ne se fatiguent pas ».
Quand j’ai acheté un disque dur dont l’unité de taille n’était plus le Mo (c’était un 1 Go), les réactions étaient exactement les mêmes : c’est n’importe quoi, qu’est-ce que tu vas faire avec ça ?
Pareil quand j’ai changé mon stockage IDE par un disque SCSI parce que mon usage ramait qd même fort à gros coups de swap.
Aujourd’hui on ne jure plus que par le stockage SSD… Avec le SATA qui cède doucement la place au pcie.
Et ben c’est pareil avec la mémoire… En taille et en techno.
Non, il y a une différence entre passer de 8Go à 12Go et de 12 à 32Go.
Le jeu est pas non plus hyper beau, 32g de ram et 3080 j ai un peu de mal à comprendre…
Fichtre, les cadors de l’argumentaire sont de sortie.
Je vois ça … et ils sont pathétiques à défendre corps et âmes un avis qui tient plus d’une approche console de jeux que d’une approche outil informatique. Visiblement, ils ne savent pas utiliser leur ordinateur, mais il leur faut quand même mettre leur 2 centimes de jus de cerveau sur le tapis en espérant que cela soit intéressant.
Avec un peu de chance, certains pourraient faire youtubeur.
Un jour j’ai pu comparer un 27" 2160p Gsync 60hz avec un 27" 1440p Freesync 144hz. J’ai comparé sur Doom pour vraiment mettre en valeur la fluidité de mouvement. C’est purement subjectif bien sûr, mais selon moi, la différence de finesse et de détail entre 1440p et 2160p était bien plus remarquable que la différence de fluidité. Je devais vraiment bouger ma souris très rapidement pour voir une différence de fluidité. La qualité de l’écran joue aussi, mon écran en 60hz a très peu de rémanence. Aujourd’hui je suis sur un OLED 2160p 120hz. Est-ce que je sens une différence par rapport au 60hz? oui bien sûr mais ce n’est pas le jour et la nuit. Le plus impressionnant c’est la qualité d’image et le contraste de l’OLED. Je préfererais un 60hz OLED 2160p que n’importe quel autre techno en 144hz.
Comme d’habitude, le mode ultra est fait pour les benchmarks et les passionnés. Cracher sur les devs parce que le mode ultra est exigeant ça a toujours été et sera toujours un non sens: c’est exactement le but. Et encore, de nos jours on oublie qu’il y a encore 10 ans, les modes ultra des jeux AAA étaient injouables avec le matos de l’époque.
Il suffit de regarder des comparatifs entre les différents modes graphiques pour s’en convaincre. Un jeu en 2160p en medium ou high avec les textures au max donnera toujours bien mieux qu’en 1080p ultra.
D’une façon générale, je ne trouve pas qu’une 3080 pour du ultra 4k soit une configuration gourmande.
MAIS, on ne parle pas de CyberPunk ou du futur portage PC de Horizon Forbidden West, et pour du Diablo, oui, c’est trop haut pour ce que c’est.
Elle détonne en tout cas des autres configs, notamment la mini qui nous ramène loin dans le passé!
A titre personnel je suis content de voir ma vieille GTX 970 dans la config moyenne
Quel rapport entre l’utilisation de son ordinateur et le fait qu’un jeu soit plus gourmand qu’il ne devrait ? Les jeux optimisés sont assez rares (Forza est un très bon exemple de jeu très bien optimisé). Qu’un jeu soit gourmand n’est pas un problème s’il le justifie d’un point de vue technique (graphismes, map, physique etc), mais un jeu techniquement moyen qui demande plus de ressources que d’autres bien plus poussés est une preuve de non-optimisation.