Justement, l’optimisation c’est surtout tirer le meilleur parti du matos existant et ne pas attendre sur la gen suivante pour se dire « bah, avec une RTX 4000 on gagnera 15fps, ça nous en fera 45 ».
L’opti est présente sur console. Quasi inexistante sur PC.
« depuis 5 ans les jeux demandent moins d’augmentation de capacité » : je doute que cela soit vrai avec le RT par exemple, bien au contraire.
Donc oui, les dev - correction - les studios s’en battent les flancs. Le matos vient à leur rescousse. Et maintenant le DLSS et autre FSR.
Après, le dev fait ce qu’on lui dit, on peut facilement comprendre cela.
Franchement, tous ceux qui râlent sur l’optimisation et l’incompétence des dev, vous devriez postuler dans une boite de JV.
Vu que vous avez l’air de mieux savoir qu’eux comment ils devraient bosser, vous pourrez former ces fainéants de développeurs, et leur montrer comment on fait tourner à 120fps un jeu vidéo récent en 4K + ray tracing sur un raspberry pi
@THIERRY TRETOLA : oui enfin tout dépends les jeux heinh…
tu fais certainement pas tourner le dernier FH5 avec ça (et FH5 est plutôt bien optimisé en plus…)
et je parle même des BFV , BF2042 et autre CoD etc etc…
alors oui ca fait tourner des jeux d’il y a quelques années probablement mais certainement les derniers gros titres.
j’ai encore un i7 3770k sur ma deuxième bécane (donc bien plus puissant qu’un quad q9550) et il devient limite sur pas mal de jeux malheureusement.
+1 avec les derniers commentaires : ne pas oublier qu’aux dev , on leur impose des dates et du coup , bah ils font ce qu’ils peuvent pour sortir les jeux sans trop de casses.
Et effectivement , on n’est plus au 1080p 60 fps maintenant , sur PC , bcp ont gouté au 144hz et plus , sur des grosses rés genre 1440p et + , et donc il faut de la puissance pour faire tourner tout ça.
tu as oublié qu’il faut windows 10 pour ce genre de jeu de maintenant , je suis encore sur le w7 (bah jy suis bien) , je joue à titanfall 1 depuis pas mal d’années <3 c’est un super jeu
Quand on est à court d’arguments on sort le joker « attaques personnelles » … en tous cas ce qui est sûr c’est que tu peux connaitre si je connais quelque chose au développement de jeux !
Sinon Je savais pas qu’il fallait être développeur pour savoir qu’un jeu est mal optimisé et plein de bugs !!!
GTA San Andreas avec une RTX 3090 qui tourne moins bien que GTA V avec une RTX 3090 … et pire GTA 3 remastered avec une RTX 3090 et un CPU 12 ème qui a des drop à moins de 60 FPS avec un GPU à 99% … j’ai besoin d’être développeur pour savoir que ce jeu est mal optimisé ??? et consomme des ressources inutilement avec des graphismes de M***** !
Désolé mais tu es comme tous ces Trolls qui encouragent l’achat de CG à 2000€ ou avoir des PC très récents et ils trouvent ça tout à fait normal
La part du CPU est dérisoire avec Denuvo ??? mec y a des jeux où Denuvo consomme 30-40% du CPU à lui tout et si tu sais pas ça alors c’est que tu es très mal informé et que tu n’es pas à jour.
Je te parle pas du fait de faire tourner un jeu mais du fait que beaucoup de ressources servent à faire tourner Denuvo et d’autres couches de protection comme VMProtect sur les titres d’Ubisoft !
Ne va pas me dire qu’Assassin’s Creed Origins, Odyssey ou même Valhalla n’est pas un bouffeur de CPU car c’est l’un des jeux qui met à plat beaucoup de CPUs récents !
Ta qu’à dire ça à Nvidia et sa CG à 600 Watts !!! non mais sérieux ça me fait rager les mecs qui défendent la surconsommation des composants !
Ta qu’à dire ça aux gens qui ont acheté Battlefield 2042 ils ont pas acheté le jeu ils ont acheté le nom
Ta joué au dernier Battlefield 2042 ? il fait pas honneur à Dice et à la série toute entière … des bugs astronomiques on dirait un jeu en Alpha …
Le problème c’est que les gens achètent des jeux avant même de savoir à quoi ressemble le jeu et le fait qu’ils soient contents ou pas ne reflètent pas la qualité d’un jeu !
Aimer ou ne pas aimer c’est une question de goût mais personne n’aime et ne veut un jeu buggué à mort !!!
Arrête de faire ton troll … GTA 3 qui tourne à 60 FPS en 4K sur une RTX 3090 avec un i9 12900K … y a un problème là !!! et même un enfant dira que ce jeu est mal optimisé !!
La presse vidéoludique qui juge les jeux vidéo … tu crois que ce sont des développeurs ? faut arrêter le délire là !!!
Les meilleurs pilotes de voitures de course ce sont des mécaniciens ?? et ceux qui fabriquent des voitures ça ne fait pas d’eux des pilotes y a même ceux qui ne savent même pas conduire une voiture (ou même un vélo).
Où t’as vu une attaque personnelle ? Je te demande juste si tu connais quelques chose au boulot de développeur de JV ? Si on veut affirmer que tous les développeurs sont de gros fainéants qui n’optimisent rien, faut un minimum de connaissances sur le sujet pour pouvoir l’expliquer…
Sans vouloir rajouter de l’huile sur le feu, tu m’accuses de manquer d’arguments, mais j’attends encore les tiens…
Parce que là depuis tout à l’heure tu craches sur tous les dev de JV, mais pour l’instant tu n’as donné que l’exemple du remaster de GTA 3.
Forcément que sur des exceptions tu peux trouver du boulot mal fait. Sauf que si tu veux juger du boulot « des développeurs », dans leur ensemble, ben tu juges ce qu’ils produisent dans leur ensemble, et pas les pires.
Et de toutes façons GTA 3 ne demande pas une RTX 3090, faut arrêter… J’y joue tout à fond avec ma 2060 (du coup me comparer à des trolls qui encouragent l’achat de de CG à 2k€, ça me fait doucement rigoler :o) …
Pareil pour Denuvo, ton truc de 30/40% c’est un exemple spécifique, qui au passage date de 2017, sur un jeu spécifique, où le titre de l’article en question commence par « rumours » et sans aucun benchmark. On a vu plus fiable comme source…
Après soyons clairs, y’a d’autres problèmes avec Denuvo, et ça reste une saloperie. Mais l’accuser de consommer jusqu’à 40% du cpu, c’est une fake news niveau Donald Trump…
Bref, on ne sera pas d’accord, mais respecte au moins le boulot des développeurs, et essaie de comprendre leurs problématiques avant de les accuser de tous saloper leur boulot…
D’où je défend la surconsommation des composants ?
Puisque les jeux évoluent et demandent toujours plus de puissance (non pas parce qu’ils sont mal optimisés [même si certains peuvent évidement l’être], mais parce qu’ils nécessitent toujours plus de triangles et d’effets), il faut bien que le matériel derrière évolue… et l’optimisation des architectures, ça fonctionne un temps, mais ça a aussi ses limites… si tu as 2 transistors, tu auras beau optimiser ce que tu veux, tu va bien finir par être coincé à un moment, donc, oui, il faut bien régulièrement augmenter le nombre de transistors. C’est simplement mathématique.
Tu me fais dire ce que je n’ai pas dit, là, au sujet de la consommation… ce bond de consommation me choque tout autant.
Tu as l’air de très bien connaître le domaine et le secteur.
Je suis sûr que des milliers de personnes seraient prêtes à t écouter leur expliquer comme faire leur travail
C’est plus un constat qu’une critique, mais à force de vouloir sortir des jeux le plus vite possible, on se retrouve avec des truc dans des état inadmissible (coucou CP2077 sur PS4 / One).
Faire bine, ils savent le faire, mais il faut qu’ils en ayant le temps / les moyens.
Bah non, ça reste une critique. Le constat c’est que les jeux n’ont jamais été aussi bien optimisés que ces dernières années. Un PC vieux de 5 ans peut continuer à faire tourner des jeux récents (pas tout à fond hein, forcément). Mais il y a quelques années c’était impensable.
Ca montre bien que les jeux sont mieux optimisés qu’à l’époque !
Le temps et les moyens, en soit, ça veut rien dire. Ca dépend de là où se situe curseur. CP2077 est un des jeux ayant bénéficié le plus de moyens et de temps. Sauf qu’ils ont placé la barre très haut.
Et justement, vouloir sortir ce jeu sur PS4/One était une connerie, parce que les capacités matérielles de ces consoles ne le permettent pas dans de bonnes conditions. Y’a un moment tu peux optimiser ce que tu veux, y passer le temps et les moyens que tu veux, tu feras pas d’un âne un cheval de course…
Et encore une fois, faut maitriser un minimum me sujet. Optimiser un jeu c’est comme corriger des bugs, c’est logarithmique. Au début, en peu de temps les dev peuvent corriger plein de bugs et bien optimiser, mais arrive rapidement un moment où il faut passer un temps de malade pour corriger un bug ou gagner 1 fps. Bref, y’a une limite à l’optimisation…
Chaque génération de « jeux/gpu/cpu » à son lot de jeux mal optimisé.
Gothic 3 ou Everquest 2, pour des jeux pas « si vieux que cela » étaient réellement mal optimisé, et bien d’autres ont ouvert la voie.
Sauf que désormais les jeux ne se plus en 1080P, mais au moins en 1440P, et là pas de secret, il faut un GPU plus solide, avec plus de ram.
Il faut cependant pondérer et accepter de jouer en mid details et pas en résolution max, afin de garder son matériel.
J’ai encore une 970GTX/i5 6600, qui sera remplacé jeudi par une 3080/i5-12600, pour un tarif presque 2.5x plus chère que ma config actuelle, et je tiens à la garder au moins 5-6 ans, voir plus, histoire de survoler les pénuries et les tarifs fou.
Les problèmes que vous évoquez n’ont rien à voir avec « l’incompétence » des développeurs. Le développement est un domaine très complexe. Si vous êtes « incompétent » comme vous dites vous avez peu de chance d’exercer une activité professionnelle dans ce domaine. Il faut une volonté solide, un cerveau capable d’appréhender des abstractions difficiles et gérer un flux considérable d’informations pour devenir développeur. Ces derniers sont donc des gens « TRES » compétents. Ce dont vous parlez est davantage dû à des problèmes de choix d’ordre structurels, d’organisations des ressources et de management inhérents au capitalisme et non pas a un problème de compétence.
laisse tomber l’optimisation … La RTX 3090 Ti aura un TDP de 450W tu trouves normal d’avoir 100 Watts de plus pour seulement 200 coeurs de plus (qui sur Ampere n’apporte pas grand chose en perfs). In the same time la 3080 Ti a 30W de différence que la 3080 pour 1536 Coeurs en plus même si dans la réalité c’est plus mais ce n’est pas 100 Watts non plus.
Où est la limite dans tout ça ? c’est la même architecture, même GPU avec quelques coeurs réactivés et une mémoire un peu plus rapide.