Que l’on soit bien d’accord, il faut pas prendre le mot mais le contexte dans lequel je l’ai utilisé !
On va faire comme les anglais … un anglais ne peut pas donner la définition d’un mot sans qu’il y ait un contexte car ça n’existe pas une définition d’un mot tout seul il a plusieurs sens.
Le mot « incompétence » couvre plusieurs aspects et ne veut pas dire qu’on a rien dans la tête mais quand on lance un produit non fini alors c’est comme s’il a été développé par des incompétents voilà.
Y a aussi les éditeurs qui mettent la pression aux studios pour sortir des jeux pas finis … c’est pas de leurs fautes mais on peut toujours les classer comme des incompétents au vu du résultat !
Nous on est des consommateurs et un consommateur juge le produit et le produit reflète celui qui l’a développé. Et d’ailleurs j’ai répondu à quelqu’un sur ce point, il disait qu’on a pas le droit de critiquer sans être développeur. Si un utilisateur n’a plus le droit de critiquer un produit qu’il a payé alors qui va critiquer ? le développeur ?
Mais il ne faut pas nier le fait qu’aujourd’hui, les développeurs optimisent surtout leurs produits pour les machines puissantes et laisse de côté celles moins puissantes.
Beaucoup mettent les specs qu’il faut pour tourner un jeu mais ils oublient de dire que c’est en 1080@30 FPS … qui joue à 30 FPS ? on sait tous qu’il faut au moins 45 FPS pour sentir une certaine fluidité in-game (c’est pas un film mais un jeu).
C’est que tu ne joues pas à grand-chose de récent.
Il se trouve que j’avais un Phenom II X4 965 équivalent au Q9650, et il n’était déjà plus capable de faire tourner correctement Wolfenstein : New Order…de 2014. Et le remplacement de la cg HD 5870 par un R9 280X (HD 7970 rebadgée et boostée) n’y a rien changé.
Il a fallu que je passe sur un i5 4690K pour pouvoir enfin faire tourner correctement tous mes jeux, donc il est clair qu’un Q9550 est largement obsolète à moins de se contenter de vieux jeux peu gourmands.
Quand à la HD 7970, elle ne pourrait même pas faire tourner Doom Eternal, parce qu’elle n’aurait pas accès à la version des pilotes nécessaire.
De Turing à Ampere on a multiplié par 2,3 la puissance de calcul. J’ai une 3090 mais perso je ne pense pas qu’il y ait une « révolution » par rapport à une 2080Ti. On aurait la même différence entre une 3090 et 4090 mais franchement pour quoi ? Depuis 2015 les jeux ne sont honnêtement pas significativement plus beaux. Par contre la chauffe est un vrai problème. Ma 3090 FE se fait sentir dans le boitier (pourtant très bien ventilé (x6 ventilo) et watercoolé pour le proc). Passer à 5nm ne fera pas une grosse différence par rapport à du 8nm (et encore faut il que ce soit du vrai 5nm).
Apple l’a bien compris avec ses M1. Le nerf de la guerre maintenant sera surtout la perf conso/puissance. Passé 400 Watts, c’est trop pour une CG. Je pense qu’on atteind une limite à celui qui a la plus grosse ! (vrai aussi pour les proc où les fréquences stagnent)
MDR, ces gens la sont au courant des pratiques des gros studios, donc si, ils aiment puisqu’ils acheteront le prochain battlefield
Presonnellement, je n’achète plus depuis très longtemps ce genre de jeux à la sortie ou même plus tard car je n’aime pas spécialement les jeux multijoueurs ou les gros jeux dans lesquels ils faut s’investir
Mais comme je disais, si les gens n’aimaient vraiment pas, ils acheteraient pas (ils sont surement un peu maso)
Si tu le prends comme ça je te répondrai qu’ils sont payés pour faire un job, alors qu’ils le fassent bien. Quand on voit la débacle CP2077, on comprend qu’ils s’en battent les flancs.
L’argument du « devriez postuler blablabla » ne fait que confirmer cette incompétence qui règne dans ce domaine.
Avant de faire tourner à 120fps sur un raspberry, apprenez à faire des jeux qui tournent un minimum correctement et qui ne nécessitent pas des patchs dayone de dizaines de gigas pour se lancer.
Tu sais quoi ? On va faire comme les anglais : ce que tu racontes, c’est du gros (mais alors du très gros) bullshit !
« Incompétence » n’a pas 36 sens, peu importe le contexte. « In-compétence », c’est la négation de « compétence », soit un manque de capacité dans un domaine donné (ce qui est exactement ce que tu sembles reprocher aux développeurs), il n’y a pas à tortiller du cul…
Ca démontre très bien ton manque de connaissance du sujet… si c’est optimisé pour les machines puissantes, c’est optimisé pour les machines moins puissantes… mais… comme tu le précises bien… elles sont moins puissantes.
Toi qui parles de contexte… Il n’a pas dit qu’un consommateur n’avait pas le droit de critiquer le produit qu’il achète, mais ce que tu fais, ce n’est pas critiquer un produit, c’est juger de la compétence de ceux qui l’ont développé, ce qui est tout à fait différent. Et, dans ce deuxième cas, oui, il est clair que pour juger de la compétence de qqun, il faut avoir un minimum de connaissance de ce sur quoi portent ses compétences.
Généralement, il y a les specs min et celles conseillées. Si tu es dans le premier cas, il me semble assez logique de ne pas s’attendre au même résultat que si tu étais dans le second.
Quand tu t’achètes une voiture de 90 chevaux, tu t’attends à ce qu’elle ait les mêmes perfs qu’une Lamborghini ? Tu considères le pompiste comme incompétent parce qu’il t’a vendu un carburant qui ne te permet pas de rouler à 300 km/h ou de pouvoir faire le 0-100 en moins de 3 secondes ?
Ok, t’as raison. 100% des développeurs sont des incompétents fainéants. Seul toi et l’autre pseudo anglais avez raison et savez développer un jeu, fin du débat.
C’est là qu’on reconnait les trolls … ta toujours réponse à tout même quand tu sais que ta tort !
Tu fais tourner GTA 3 en 4K 60 FPS avec ta RTX 2060 ?? arrête ton délire !!!
Je t’ai donné une preuve qu’on peut être un grand studio et faire de la M*** et GTA Trilogy est un exemple parfait !
Je t’ai dit que GTA 3 tournait moins bien sur une RTX 3090 en 4K que GTA V … et tu me balances que ce jeu n’a pas besoin d’une RTX 3090 ???
Déjà ta oublier le fait que j’ai précisé « 4K » et si tu jouais en 4K tu ouvrirais même pas ta bouche … et celui qui se paye une CG à 2000 boules il a le droit de râler sur un jeu de 20 ans remasterisé qui tourne pas bien sur sa machine de guerre.
Peu importe la raison quand on peut pas faire quelque chose on ne le fait pas c’est tout … on va pas dire que le développement d’un jeu est très complexe blablabla pourquoi le sortir alors ?
Cyberpunk 2077 est sorti sur PS4 et Xbox One alors que ces machines n’ont pas la puissance pour le faire tourner … il devrait pas sortir tout simplement parce que s’il sort alors les développeurs n’ont pas été capable de l’optimiser sur ces machines point barre !
Apple utilise justement une lithographie 5 nm. C’est cela couplé à une grosse surface de die qui leur permet d’atteindre un bon rapport puissance/consommation.
Je signal juste que le TDP est proportionnel au carré de la fréquence pour un GPU donné.
Si tu regarde les chiffres de l’hypothétique RTX 4090, tu arrive à la conclusion qu’en divisant la fréquence par 3, on serait à un TDP de 72 W (650 W / 3² = 72 W) dans le pire des cas pour une puissance de calcul théorique de 30 TFLOPS (90 TFLOPS / 3 = 30 TFLOPS) soit 2 fois plus que pour la RTX 2080Ti, le tout pour une consommation théorique 3,5 fois inférieur à la RTX 2080Ti.
C’est à cela que sert les lithographies de plus en plus fine. Contrairement à ce que beaucoup pense, Apple n’y ai pour pas grand chose la dedans. Ce ne sont pas les dieux que certains aimeraient nous faire croire. Ils s’appui sur les avancés de TSMC pour ça. Et bientôt, il y aura le 3 nm couplé à la technologie des Chip-Let qui permet de fabriquer une puces à partir de 2 ou 4 die pour n’en faire qu’une seule puce. Cette technique permettra de fabriquer un GPU de 1000 mm² (4 x 250 mm²) pour le prix d’un autre de peut être 600 mm² (unique 600 mm²) en gros.
Nota : Nvidia/AMD ne fabrique pas de GPU a faible TDP à cause du mauvais rapport perf/prix. Ca leur couterai le même prix de faire un GPU de 90 TFLOPS @ 650 W ou de 22,5 TFLOPS @ 40 W. Les testeurs de GPU diraient que le GPU de 22,5 TFLOPS à 1000 € est nul et qu’il est préférable d’acheter un RTX 4050 à 200 € qui aurait un meilleur rapport puissance/prix ou d’aller chez la concurrence AMD. Apple ne semble pas être touché par ce problème car peu de concurrent.
Votre débat est stérile je trouve, les CPU et GPU augmente en conso et chauffe, mais derrière les gens continuent d’acheter… perso je me suis fixé une limite a 200 watt grand grand max pour la CG ( ce qui est équivalent a une 3060ti laaaaaaaaaaaaargement suffisant pour beaucoup ) et un CPU avec un TDP de 105watt ( ryzen 9 ) ce qui me permet de bosser et jouer très a l’aise. Je ne comprends vraiment pas les gens qui achètent des CG a 400 watt voir 600 ( c’est du délire !!! ), idem pour les CPU quand ca commence a taper > 150 c’est aussi vraiment n’importe quoi ( coucou intel ).
Les watt ca consomme , ca coute cher en élec, ca chauffe tellement qu’en été t’es obligé de jouer a poil, pourquoi les gens continuent d’acheter ca ? Les gens vont acheter des gpu a 650 watt pour de vrai ?
On pourrai dire la même chose pour toi dans ce cas 300 Watts, c’est beaucoup. Mon PC doit être actuellement à 130W total (75 W la CG RTX 3050 et 35W le CPU Ryzen 5 5600H et peut être 20W pour le reste) et c’est suffisant même si je ne joue pas en réalité donc j’ai désactivé la CG depuis le BIOS donc j’ai un TDP minuscule d’environ 70W total au final avec le chipset intégré .