Pour sa prochaine génération de cartes graphiques, AMD ambitionne de produire des modèles plus économies, à tout point de vue.
Voilà qui me semble bien plus intelligent
Aux moteurs graphiques et aux devs (la faute aux studios et éditeurs) maintenant d’arrêter de pondre de la merde qui ne justifient pas de telles puissances.
On est d’accord, mais tant qu’Nvidia ne décide pas de faire pareil (spoiler, ils ne le feront pas), ça ne changera pas, AMD a peu d’impact sur les GPU (par rapport à Nvidia).
Je suis d’accord avec @marc6310 : la réponse viendra des studios.
Si ces derniers préfèrent continuer à perdre des clients potentiels en faisant des jeux qui tournent sur une minorité de configurations (ex: Alan Wake 2, Cyberpunk 2077) et ce, afin d’encourager la course à la puissance, alors oui, Nvidia continuera à nous inonder de ses cartes hors de prix.
Si au contraire on nous donne de jeux bien optimisés et beaux même sans l’emploi de techs trop gourmandes en puissance de calcul (ex : Lies of P, Hogwart’s Legacy), alors ce seront les cartes entrées et milieu de game d’AMD qui seront plébiscitées.
L’avenir nous dira, mais si j’étais les devs, je regarderais la facilité de certains jeux à dégager des bénéfices et la comparerait à la difficulté de certains autres à le faire.
Oui mais tant que Nvidia (qui est largement leader et plus influent) continuera de tout miser sur des GPU toujours plus gros, consommateur, puissant etc, alors les studios ne changeront pas. Déjà qu’ils ne faisaient pas d’effort avant cette course à la surpuissance, alors si Nvidia continu, les devs ne changeront pas. Sans parler du fait que si les jeux sont rarement opti, c’est aussi en grande partie à cause des éditeurs qui veulent toujours pousser à sortir les jeux le plus vite possible, donc pas le temps de debug correctement et pas le temps d’optimiser.
Tu as assurément raison quand tu parles de l’influence écrasante d’Nvidia qui fausse la donne. On arrive à discerner les lignes d’influence qui font que certains insiders n’hésitent plus à appeler Nvidia le « cartel du jeu vidéo ».
Mais certains éléments me donnent tout de même quelque espoir de changement. D’abord, quoi qu’on en dise, Nvidia recule lentement, mais surement dans les statistiques Steam, signe que le vent commence à tourner. Ensuite, certains studios, en particulier ceux exerçant hors de l’Amérique du Nord, semblent moins soumis aux dictats des grands groupes d’influence et le succès de leurs productions pourrait bien donner des envies d’émancipation à d’autres studios.
Je reste prudent, je ne veux pas faire preuve d’un optimisme béat, mais j’ai l’impression que certains signaux sont encourageants.
Votre message est totalement antinomique : si les « devs » (ce sont les studios qui font des choix, pas les devs) cherchaient la facilité pour dégager des bénéfices, ils ne produiraient pas des vitrines technologiques qui ne peuvent s’exécuter sur un maximum de pc.
Je n’ai pas parlé de facilité, je ne crois pas l’avoir écrit une seule fois dans ce topic, avant ce post.
Je vais donc préciser mon propos : certains studios préfèrent optimiser leur jeu pour le rendre accessible à plus de machines, quitte à ne pas employer certaines technologies à la mode. Ce n’est donc en rien une « facilité » car les studios concernés doivent compenser autrement l’absence de ces technologies pour que leur jeu n’ait pas l’air dépassé et certains y arrivent mieux que d’autres.
Quant à savoir qui des devs ou des studios décident de ça, je ne m’y connais pas assez pour argumenter.
NVidia mise sur l’IA et les datacenters. Les GPU qu’ils donnent au grand public, c’est un peu les restes… L’architecture que propose NVidia est orientée calcul (IA, RT), ils veulent maintenir leur leadership là-dessus.
L’architecture d’AMD (qui fait des APU très corrects avec de la RAM « normale ») est plus orientée grand public/ jeu.
Quand aux optimisations des jeux, elles sont encore en cours: les dev ingurgitent encore les montagnes de contenus nécessaires actuellement dans un jeu. C’est complexe: pour faire un jeu qui fonctionne en 4K, il faut des textures, des polygones, sinon ça fait fade et vide. Mais du coup c’est consommateur et ça crée des charges de calcul en pointe conséquentes et difficiles à prédire.
Oui il y a quelques bons élèves qui donnent de l’espoir, mais malheureusement c’est marginal.
Les restes ? Non pas vraiment, pas plus qu’avant. Les xx90 ne sont clairement pas des restes mais des Titans renommés, donc des cartes « pro » voir « semi pro ».
Je sais comment ça fonctionne, mais ça ne change en rien le fait que la grande majorité ne fait aucun effort d’optimisation. J’ai des jeux qui sont pas très beau dans ma biblio et qui ne sont pas vraiment fluide (j’ai pourtant une 3090, donc pas trop mal encore), ce qui n’a pas de sens. Certains devs sont consciencieux (et moins pressés par les éditeurs) et optimisent très bien leurs jeux, mais c’est assez rare. Quand on voit le nombre de gens avec de très bonnes machines se plaindre des perfs des jeux, c’est pas uniquement de la faute de l’utilisateur, quand tu mets plus de 4000 balles dans une machine c’est pas pour faire des concessions.
Et pourtant, ils devraient, parce qu’il peut se passer deux choses : que les possesseurs de cartes AMD (puisque la société semble se détourner des modèles haut de gamme) achètent moins de jeux. Et que le prix des cartes Nvidia montant toujours plus haut, pas mal de gamers ne pourront plus suivre. Dans les deux cas, ça signifierait moins de ventes pour les studios de développement. ^^
Absolument, mais bon pour le moment et tant qu’NVidia est largement « dominant » et que les éditeurs veulent la rentabilité à tout pris, ça ne change pas. On espère tous que les jeux tournent mieux (coucou Ubisoft, et consorts), qu’ils arrêtent de coûter de plus en plus cher et avec de plus en plus de DLC payants, et que les GPU redeviennent accessibles (on se rappel le temps de la 1080Ti à 700 ou 800€ en MSRP, la bonne époque).
Oui, le prix aberrant de production des jeux fait partie intégrante du problème. Il oblige les éditeurs à prendre des partenariats pour financer ces productions, partenariats qui viennent toujours avec une contrepartie et/ou un fil à la patte.
Le problème, c’est que ces obligations tendent à impacter les ventes et à augmenter les couts de productions, ce qui rend le jeu plus difficile à rentabiliser, ce qui entraine des difficultés financières pour l’éditeur qui doit toujours plus dépendre de ses partenaires financiers et ainsi de suite.
Comme plusieurs fois par le passé, le marché se régulera de lui-même, mais au prix de la disparition de studios, de milliers d’emplois et de nombreuses franchises très appréciés.
- Forcément après quelques années à regarder des jeux tourner en 200FPS, on di que ceux qui tournent à 40-60 ne sont pas optimisés. FAUX. Non optimisés, ils seraient pires
- Faire confiance à des gens qui disent avoir payé des machines 4000€ qui rament… Ils ont payé 4000€ parce qu’ils le veulent bien. Quand à ramer, il faut voir les conditions: 4K, RT à fond et 40-50FPS. Ben oui, c’est le prix.
- Dans la communauté des gamers, ce ne sont pas ceux qui font le plus de bruit qui savent le mieux monter des machines. Ceux qui activent toutes les options ne se rendent pas compte qu’ils se sabordent eux-mêmes: utiliser un RAID par exemple peut activer des options de la CM ou de Windows qui vont induire des traitement bloquants. Je dépanne rarement les gamers, ils n’écoutent pas.
- Il y a toujours eu des jeux gourmands qui proposaient l’expérience suivante « en avance » (et aussi des jeux raté, c’est vrai). Doom, Unreal étaient difficiles à faire tourner « Day1 » sans faire énormément de concessions qui diminuaient largement le plaisir de jeu. Dire qu’ils n’étaient pas optimisés est un peu arrogant je trouve.
1- La majorité des gens n’a jamais joué à plus de 100FPS. Et dire que c’est FAUX est absurde et est un non sens. Un jeu moche qui tourne mal est un jeu mal optimisé. Un jeu beau qui tourne mal sur un config moyenne c’est logique, qu’il tourne mal sur le matos le plus puissant ne l’est pas.
2- Je fait confiance à mon expérience, je joue en UWQHD, une grande partie de mes jeux tournent a fond à 120FPS, mais pour certains je me limite au High et ils ne tiennent pas forcément 60FPS, sans RT, sans 4K, et c’est donc pas normal.
3-Jamais dit le contraire… de nos jours j’ai jamais vu un gamer avec un RAID, ça n’apporte rien et ça coûte cher.
4- On en revient à mon point 1, qu’un « Crysis » rame sur une config moyenne c’est envisageable, mais qu’il ne tourne sur aucune machine de son époque est ridicule.
Aucun rapport avec de l’arrogance, pourquoi pas du mépris pendant que tu y es ?
Crysis était difficile à faire tourner à son époque. Comme quake 3. Ou Doom 3.
Le fait qu’un jeu ait du mal n’est pas forcément lié à une mauvaise optimisation.
Par ailleurs, le fait qu’on trouve un jeu moche est subjectif.
Oui, on peut avoir sur ordi une version qui aimerait que les ordis aient les capacités de la PS5 (et certains ordis l’ont) concernant l’alimentation directe de la CG depuis le SSD.
J’ai bien entendu la polémique sur le jeu Harry Potter, mais vu qu’il a une version sur switch, j’imagine qu’il est possible de le faire tourner sur PC en limitant les graphismes?
Pareil pour Alan Wake 2, à priori il tourne sur des portables assez classique du moment que la CG est une RTX…
Ensuite, cela fait partie de la promotion du jeu. Qu’il ne tourne pas sur toutes les configs rend le jeu plus intéressant commercialement. Ca en fait un « must », un jeu « novateur ».
Dans tous les cas, il y a plus d’heures de jeu sur candy crush et les jeux de carte comme earthstone que sur les AAA. Et c’est de plus en plus marqué…
Ca doit peser aussi énormément dans le budget de dev, déjà qu’il faut 4-6ans de conception/dev pour un AAA (avec 40 à 300pers dessus selon les moments), ça empire avec la 4K et le RT niveau mise au point, et les recettes baissent et la priorité se réoriente…
Optimiser un jeu, le tester sous toutes ses coutures et dans tous les cas, c’est juste économiquement impossible. Et ça fait des années! Du coup, autant livrer le jeu, récolter de l’argent et écouter les retours pour optimiser ce qui fait le plus de bruit.
Si en tant que client je ne l’admet pas, pragmatiquement parlant je le conçoit complètement.
Mais je reconnais que j’avais fortement apprécié le moteur de borderlands 2 pour son mode « adaptatif » 22-62 FPS lissées: on pouvait jouer sur Intel HD comme sur une CG dédiée sans chercher dans des tonnes d’options. Ca c’était la classe.
(J’ai pu finir Unreal 1 environ 2 ou 3 ans après l’avoir acheté - le temps d’avoir une machine qui le fait tourner suffisamment bien et que les bugs soient patchés)
J’ai pas dit le contraire…
C’est pas la question.
C’est pas la question.
Encore hors sujet.
Toujours pas.
C’est tellement impossible que certains le font…
euh lol
Merci pour cet exemple de contradiction.