Cyberpunk 2077 sera encore plus beau sur PC le 11 avril… mais aussi gourmand, au point de demander une véritable bécane du futur.
Tout ceci s’apparenterait, selon NVIDIA, à ce que l’on voit déjà dans des films animés du calibre visuel d’Avatar 2.
Sur ça nvidia nous a déjà sorti ce genre de phrase il y a quelques années en prenant les production Pixar comme exemple, et ce n’était pas le cas. On a eut aussi Sony si je ne me trompe pas.
Mais bon ça ne change pas le fait que les jeux sont de moins en moins travaillés et que les définitions d’affichage sont devenues faussées et que tout repose sur des artifices pour tenter de camoufler le tout, ce qui n’est pas nouveau mais a eut tendance a disparaitre à un moment pour revenir maintenant en force avec le soutien de quelques journalistes ou autres départements de comm divers et variés qui tentent de tout justifier comme ils peuvent.
Je ne cible personne en particulier, juste un constat que certains prendront un plaisir de contester, libre à eux cependant.
Le Path Tracing, c’est un peu le saint graal de la 3D. Imaginer qu’il faut autre chose qu’une machine super récente c’est irréel…
Meme si on n’est pas (encore) a un mode où tout est rendu sur l’image avec des rayons, on est en phase d’avoir un pipeline de rendu qui va ENFIN traiter la lumière comme il faut et ce n’est pas rien !
Alors oui, on a besoin de DLSS3 car on ne peut toujours pas shooter assez de rayons à la second pour faire du brute force, mais c’est quand même dingue !
Dans 5 ans, on aura la norme avec du micro-polygone et du path tracing pour lumiere, ombre, reflexion, matériaux.
Dans 10 ans peut etre on pourra commencer a s’affranchir des triangles, mais de toute facon j’ai l’impression que cette étape est plus un fantasme qu’autre chose.
L’industrie tout entière utilise des pipelines basés sur du triangle, on n’est pas prêt de pouvoir passer a autre chose.
En tout cas, perso, je suis bluffé par ce que fait nVidia, ils ont tenu bons depuis la premiere generation de RTX, qui ne servait pas a grand chose, et enfin ca commence a payer pour les utilisateurs.
Mais bon ça ne change pas le fait que les jeux sont de moins en moins travaillés
Bien sûr, c’est bien connu, tous les studios de jeux vidéo se la coule douce, et ce depuis des années maintenant.
J’ai quitté le milieu du dev de jeux car j’en pouvais plus de bosser 80hr par semaine minimum…
Faire du jeu, c’est ultra compliqué est avec l’accroissement du réalisme on explose tout : la taille des assets, la complexité de pipeline de prod, de rendu.
Le nombre d’équipes et de gens qu’il faut…
C’est beaucoup plus difficile de faire un AAA qu’un film de nos jours.
Les studios travaillent toujours autant, si ce n’est plus, c’est juste que ca devient de plus en plus difficile.
D’un autre coté on peut se dire que c’est une fuite en avant et que le prochain Zelda n’a pas besoin d’une RTX 4000 pour tourner. Mais il y a toute une population qui es plus intéressé par le rendu que le gameplay, c’est un fait.
Pour ma part, faisant parti de la génération du toujours plus beau, entendre que je suis né dans les année 70, j’en suis revenu. Je préfère un bon gameplay et de bonnes mécaniques de jeu, et un bon scénario, qu’un jeux creux comme une dent d’hiver (ne me demandez pas d’où ça vient) aux graphisme de fou. Bon, après, j’ai sur-kiffé Red Dead Redemption 2.
Je trouve ca sympa qu’on pousse un peu les specs pour voir ce qu’est capable la technique, un « showcase » comme crysis à l’époque même si tu peux pas le faire tourner sur ta propre machine.
Parfait pour ma 4070ti !
Ca sera l’occasion d’enfin finir ce jeu que j’ai laissé tombé après sa sortie.
C’est encore et toujours la fuite en avant et la course aux améliorations visuelles gourmandes en ressources mais dont l’ajout n’est en rien un game-changer.
« Connaissant la politique de la Team Verte sur la question, le doute sur ce point est toutefois largement permis. »
Ce n’est même pas un doute, c’est déjà un fait. Pour faire tourner cette technologie s’appuyant sur le Ray-Tracing il faudra obligatoirement les meilleures cartes dans ce domaine, c’est à dire, les RTX 4000. Pareillement, pour garder un nombre de FPS suffisant, il faudra obligatoirement le DLSS 3.0, uniquement disponible sur…RTX 4000.
Donc, cette pseudo ouverture n’est qu’une hypocrisie de plus, similaire à celle consistant à condamner les crypto-monnaies après avoir vendu des cartes par palettes entières aux mineurs.
Quelles sont les perfs sur les grosses vitrines graphiques en mode RTX activé avec une 4070 Ti ?
Je me tâte à changer de config genre cet été, en espérant que les prix baissent, et j’hésite entre une 4070/Ti et une 4080.
Sauf qu’il y a une nette différence sur la note finale dans le panier, pour un gain de perf qui m’est un peu obscur pour du jeu en 1440p ^^
Avec ma 4070TI et un 7950X j’arrive à faire du 100FPS en moyenne sur le benchmark en 5120 * 1440, en tweak les settings pour avoir globalement de la GI. Je crois que j’ai baissé un peu le niveau des textures, mais franchement je ne vois pas la difference.
DLSS3 c’est de la balle !
Je sais que la question ne s’adresse pas à moi mais je me permet une réponse de péon éclairé, si j’ose l’expression,
Je suis l’heureux possesseur d’une config ryzen 5/3070ti (oui je sais le ti sert juste à faire un chauffe pieds de luxe par rapport à la 3070 de base) eh ben pour l’instant entre « ultra » et « ultra sa mère » sur les jeux en 1440p je vois pas un poil d’oreille bouger…RTX activé bien sûr !
Alors si c’est une question de rentabilité images/s par euros… Cher ami, vise la moins chère des deux ! Dans 3 ans grand max de toute façon ça te démangera le portefeuille d’upgrader !
Et à part sur cyberpunk j’oublie souvent d’activer le dlss.
Voilà, experience Perso hein, évidemment…
J’ai une config similaire : Ryzen 5 5600X, RTX 3070 Ti et 32 Go de RAM DDR4 3x00 MHz (je sais plus exactement), et pourtant sur pas mal de jeux récents je ne suis pas foutu d’activer le RTX et avoir un framerate stable à 60 fps en 1440p, même en activant le DLSS
Il y a peut-être quelque chose qui cloche dans ma bécane, ou simplement les jeux PC de nos jours sont optimisés avec le fiac, I dunno
Sans le ray tracing ça tourne nickel, mais ça me fait un peu mal au derche d’avoir une config quand même vraiment pas dégueu et de pas en profiter pleinement D:
Après l’idée d’upgrade encore le bouzin est principalement un caprice/lubie et je vais sûrement m’assagir, sauf si l’industrie me force la main ^^
Merci pour les réponses à ma question en tout cas
Ma machine d’avant était semblable a la tienne, env le meme CPU et une 3070Ti, dans les faits:
- Ryzen série 9 tu es deux fois plus rapide en single thread que la série 5, donc ca compte pour tous les jeux, Cyberpunk aussi. (meme si le jeu tire bien profit du multi core)
- Les RTX 4000 c’est juste abusé le gain de perf brute, alors quand tu mets au dessus du DLSS3 c’est encore plus flagrant l’écart.
- La DDR 5, ok c’est un peu plus rapide, mais pour le jeu cela ne joue quasiment pas.
Baisse la qualité des textures, cela prendra moins de RAM sur la carte gfx et tu auras une meilleure stabilité. Si tu as du lag, cela peut etre du à une saturation de la RAM video qui fait que les textures passent leur temps a se décharger/recharger.
Merci pour ces conseils fort avisés
Je tâcherai de faire quelques bidouilles dans les réglages et voir quelle différence ça apporte. Il y a sans doute bien un souci de VRAM saturée parce que j’aime faire le kékos avec tout en Ultra ^^
C’est noté également pour l’éventualité d’un upgrade, histoire de tirer le meilleur parti de la prochaine config
Je suis sur un 34 pouces wide 2K. Tout tourne vraiment ultra fluide sur n’importe quel jeu, mon GPU n’est qu’à 60/75% sans dlss activité et avec raytracing en psycho.
Sachant que la 4070ti est deja 25% plus performante que la 3090 qui fait deja tourné a fond en 4k, tu as de la marge pour le futur.
C’est deja 4x plus puissant qu’une ps5 avec 40 teraflops! Alors tu peux y aller les yeux fermés, je vois pas un seul jeu dans les 5-6 prochaine années qui pourrait mettre a mal les perf sachant que tout est bridé par les consoles. A l’heure actuelle avoir une 4070ti ou 4090 ne fait aucune différence, je doute de faire la distinction entre 120 et 140 images/s.
Alors questions qui me viennent avant upgrade, et qui peuvent paraître bateau mais sait-on jamais ?
- tes processus de démarrage sont opti ? Ta ram win-win est elle libérée délivrée ? Teams est un ennemi mortel par exemple quand il reste en sommeil…
- je rejoins l’idée de baisser « un chouia » le rendu texture, les 8gigots de vram prennent vite un coup de chaud
- les jeux sont sur un m2 ou sur un ssd ?
J’ai pas d’autres questions qui ne seraient pas basées sur des conneries (signe astrologique de la carte vidéo ou hygrométrie de la pièce ) mais quand je lis ton retour j’ai l’impression qu’on a pas la même machine alors que… Si!
Maintenant soyons francs. Vraiment. J’aurais les thunes elle serait déjà là la config ddr5 ryzen 7 4070ti. Voilà. Parce que kikitoudur épicétou !
J’en suis revenu aussi, car les prix sont indécents pour faire tourner des jeux qui comme très bien dit plus haut sont tellement colplexes et ont demandé tellement de temps que le risque de bug et de sortie anticipée plombé le jeu. Et du fait que beau ET avec du contenu riche et un scénario de fou…. C’est trop de boulot. Ce que j’espère c’est que les outils de dev vont continuer à s’améliorer pour simplifier ça. J’ai vu une démo d’un logiciel d’un réal je crois qui scanne / photographie les objets réels pour les intégrer directement dans les outils de dev 3D. Ça pourrait sûrement faire gagner du temps.
- Sur ce point je suis à peu près rôdé : je bloque tous les processus qui ne me servent à rien et ils démarrent quand je leur dis, et la RAM est bien lâchée à fond ^^
- C’est vrai que la 4070 Ti a de la patate mais une VRAM un peu aux fraises, faut que je fasse un peu de benching pour optimiser ça sur des jeux gourmands comme ce bon Cyberpunk x)
- M.2, only the best for my baby x)
- Euh… signe astrologique je dirais Gémeaux, Sagittaire ou Poissons, incompatibles avec le mien et avec plein de jeux optimisés avec les pieds lol
Oui, oui… On te croit.
80h semaine minimum.
Tu prends des gens pour des cons je suppose.
Le problème des programmeurs comme toi qui réclament être des pros, en réalité des beaux parleurs et lèches bottes.
Mais une fois au travail, on comprend vite que tu maîtrises rien.
J’ai bossé et j’ai vu.
Un bon programmeur c’est 1 sur 100 faux programmeurs.
Quand tu dis AAA , tu veux faire caca ou qoui ?
Sinon, je vais te dire un truc, si la majorité des gens ont des rtx 2070 en moyenne, les développeurs ont intérêt à s’adapter pour.
Sinon, bonjour les pertes ou des gains rikiki.
En essayant d’avoir un regard neutre, quand je regarde les vidéos NVIDIA RTX ON/OFF, bah honnêtement je ne vois pas une « révolution ». La seule chose qui se remarque (en y portant attention) c’est les reflets qui sont plus détaillés mais en aucun cas ça révolutionne le graphisme.
Beaucoup de marketing dans tout ça pour essayer de justifier des couts et des ventes aux consommateurs .
Par contre ce qui se fait beaucoup plus remarquer c’est la conso et le bruit de le ventilation pour refroidir le tout (je suis possesseur d’une 3090).