Et on va se calmer, surtout quand on a un passif d’attaques envers des rédacteurs et d’autres membres. Sinon on finira par se demander qui pollue le forum, au juste.
carte qui restera dans les stocks ou sera bradée pour vider les stocks ? au prix de la carte rtx 4000, de l’alim. et du kwatt, c’est clairement un gouffre.
Tu vas chercher tes tests chez Nvidia alors, ce qui est à la fois ton droit et normal pour un fan-boy.
Moi, je préfère YouTube et que ce soit Linus Tech Tips, JayTwoCent, Pax PC, Harware Unboxed, Moore’s Law is Dead, Ryan TM, Jigfio, Gamer Nexus et ainsi de suite, les avis vont de franchement dubitatifs à extrêmement négatifs. Et cela, comme je l’ai dis, avant même les tests, ce qui est peut être le vrai exploit de ces RTX 4000.
Vite mon nouveau chauffage pour l’hiver
A raison d’une carte graphique tous les 3 ans, on arrive à 3*30 = 90 ans.
Mouais, on est large !!!
Ca existe déjà, il y a même des boitiers avec deux config à l’intérieur, en air cooling ou en watercooling.
et tout cela pour afficher un jeu en 4k fluide !wow ! quelle avancée technologique ! S’il sont pas capable de faire comme apple qualcomm ! des puces qui sont plus puissantes mais qui ont aussi une diminution ou une équivalence a puissance plus élevée de leur conso … entre l’ancienne et nouvelle génération ;;; en tout cas Nvida se soucis guère de cela et puis celui qui peut se payer tous les ans la meilleurs carte au prix fort ! et qui le rendra pas meilleur en jeu mais avec un beau trou dans son porte feuilles … cela en devient plus que ridicule ! c’est comme la PS5 elle est dépassée mais il y a encore des gens qui cours après ! et quis eront pas deçus de tout ce qu’il faut ajouter pour s’en servir ! abonnement second ssd car trop petit manettes etc
Et même avec une seule config, ça existe les boîtiers double alim. J’en avait un de chez Lian Li il y a quelques années. Ils fournissaient avec le boîtier un coupleur pour raccorder les deux alims ensemble et qu’elles démarrent toutes les deux au démarrage du PC.
On trouve même des « troupleurs » pour associer 3 alims : https://amzn.to/3fkFxq8
Ça peut être pratique quand on a une alim 400W-500W de bonne qualité et qu’on veut monter un PC avec une très grosse carte graphique, plutôt que de racheter une alim de 800W il suffit de mettre une deuxième 400W et un coupleur.
On en reparlera quand Apple ou Qualcomm seront capables de faire des puces aussi puissantes hein… Les contraintes ne sont pas les mêmes quand tu priorise la consommation et quand tu priorise la performance…
a force de jouer les gros bras, les constructeurs de cg sont en dehors de la réalité mais pareil pour les développeurs de triple A qui a part triplé le coût de leur travail en se faisant payer 150€ de l’heure ne s’emm…de même plus à coder proprement et efficacement c’est comme les footballeurs qui coûte trop cher pour le résultat escompté. Aujourd’hui tout manque de finition. beaucoup d’exigences de la part de paresseux mais aucun paresseux pour se remettre en question.
concrètement une rx6800 suffira amplement en attendant que de vrais moteur optimisé pour les 3 dernières années de cartes graphiques sortent. là concrètement c’est pas avec saints row, Valhalla ou elden rings que l’on va vraiment utilisé le potentiel visuel de nos cartes graphiques (perfs mis à part)
Avec les prix de l’électricité à venir, il va falloir un porte-monnaie bien garni pour les gamers.
Sa resteras une vitrine, la majorité des gamers attendent les 60, 70 voire 50 (sa peut être intéressant au vu de la puissance), car en moment tout le monde se serre la ceinture et sa va empirer, alors 350 w … plus de 2000 boules … non merci.
Même si ces consommations sont énormes, en pratique ça pèse quand même pas bien lourd sur le portefeuille.
Avec une électricité qui serait au double du tarif réglementé actuel (mais je rappelle que la hausse annoncée pour l’an prochain sur le TR, c’est 15%) et 3h de jeu par jour, même en supposant le cas extrême où la carte consommerait les 450W en permanence pendant les 3h de jeu, le coût électrique de la carte ne serait que de l’ordre de 50cts par jour. Et dans un local chauffé, une partie de ce coût est économisée sur le chauffage (avec la hausse du gaz, ça pourrait même faire économiser plus en chauffage pour ceux qui se chauffent au gaz ^^). L’inverse par contre quand le local est climatisé…
Le prix de la carte elle même plombe bien plus le portefeuille que son coût d’utilisation.
Si la RTX 4090 est une vitrine alors elle devrait arriver en même temps que d’autres produits beaucoup plus abordables. Le simple fait qu’elle arrive seule montre qu’elle a vocation à être achetée et pas juste admirée de loin.
Pareillement, 1599$ pour la vitrine, bon, passons . Mais dans ce cas la RTX 4080 devrait, comme la 3080 en son temps, être beaucoup moins chère, car destinée aux « vrais » acheteurs. Que nenni, elle est à peine moins chère à 1199$. Et qu’on ne me parle pas de cette pseudo 4080 à 899€ dont tout le monde à compris qu’elle n’est qu’une 4070 renommée en catastrophe pour justifier son prix.
Et avec les restrictions de consommation électriques cet hiver et l’augmentation des tarifs cette carte est t’elle vraiment utile? ou juste utile pour faire un benchmark?
En même temps, il ne faut pas oublier que l’hiver c’est autant d’énergie en moins à fournir par le chauffage, car l’énergie utilisée par une carte graphique finit en chaleur.
La méthode la plus idiote d’utiliser l’énergie, n’est pas l’informatique, mais le chauffage.
En revanche, l’été une telle carte graphique est une catastrophe . Et encore plus s’il faut climatiser pour éviter que la pièce ne se transforme en four.
Cela dit, pour ma part, j’accorderait une très grande importance à la consommation pour mon prochain achat. Quitte à descendre un cran en performances.
Au passage, sachez qu’on peut gagner pas mal en sous cadençant et en sous voltant une carte graphique.
Et également en activant le Vsync (ou le limiteur de framerate dans les drivers nVidia), surtout dans les jeux légers où la carte est capable d’aller beaucoup plus vite que l’écran.
Puisque tu parles d’utilité, tu te rends bien compte que ça ne sert strictement à RIEN que la carte graphique aille plus vite que l’écran, non ? Si l’écran peut afficher 60 ou 120 fps, ça ne sert absolument à RIEN que la carte en calcule 200… Donc autant brider la carte à 60 ou 120 selon les capacités des l’écran.
Ce qui ne rend pas pour autant une carte puissante inutile : elle saura faire tourner les jeux les plus récents en allant aussi vite que l’écran, contrairement à une carte moins puissante qui n’y arrivera pas. Mais ça sert tout de même à rien d’essayer de la faire aller plus vite.
Et je n’ai pas dit que j’achète une carte à 2000€ (j’ai une 3080 payée 720€, et je compte pas la remplacer avant au moins 3-4 ans)… Même une carte d’entrée ou de milieu de gamme, dans certains jeux, elle va beaucoup plus vite que l’écran, pour rien. Donc autant la brider à la vitesse de l’écran pour économiser un peu d’énergie (et ça peut pas non plus faire de mal à la carte elle même, ni à son ventilateur, qui va pouvoir tourner moins vite…).
et aussi en mettant l’écran en 800x600, voire 1024x768
Ben je peux te dire que par exemple Forza Horizon 5 en 5k, ça exploite largement une 3080, ça tourne à 70-90, avec même quelques chutes à moins de 60 dans les scènes les plus chargées… Et c’est pas spécialement un jeu réputé pour être « programmé à la truelle »…
Par contre dans Trackmania, ça mouline à plus de 200, autant le brider à 120, ça sert à rien de laisser tourner à 200.
Sauf que ce dont je parle, ça permet d’économiser un peu d’énergie sans aucun impact sur la qualité visuelle ou la fluidité hein… Juste en évitant de calculer pour rien des images qui ne seront jamais affichées.
En l’occurrence c’est plutôt 5120x1440, j’aurais dû préciser. Écran pour être confort pour le télétravail (même résolution que du 27" 2560x1440, donc ça permet d’afficher pas mal de lignes de code) et pour avoir un champ de vision large dans les jeux, ce qui donne une meilleure immersion, sans avoir la séparation centrale d’un double écran.
Du coup contrairement à du vrai 5k 16/9, qui augmente grandement les détails à calculer, ça n’a pas énormément d’impact sur le framerate, vu que ça rajoute surtout des choses sur les côtés, où il y a généralement bien moins d’éléments qu’au milieu de la scène. Je viens de tester en 1920x1080 dans FH5, ça monte à 90-110, j’irais pas dire que la carte est vraiment sous-exploitée…
Mais de toute façon, sur le fond, grosse carte ou pas, grosse définition ou pas, ça ne change rien : la baisse de conso en bridant le framerate au max de l’écran, ça reste valable même avec des cartes d’entrée ou milieu de gamme (d’ailleurs perso j’ai commencé à le faire sur une R9 270X après avoir constaté les gains que ça permettait dans F1 2013). Parce que sur ces cartes, on laisse pas le jeu en plein détail avec un framerate à 20, on diminue les détails pour que le framerate ne descende jamais en dessous d’un certain niveau… Et comme la complexité des scènes est variables, on se retrouve forcément avec des moments où la carte graphique dépasse la vitesse de l’écran.
Surtout que, tout comme la majorité est encore en 1920x1080, la majorité a sans doute encore un écran 60 Hz… Donc si on fait des réglages pour cibler 50-60 fps mini, on se retrouve assez facilement au-dessus de 60 sur les scènes légères, et on a donc des images qui sont calculées pour rien.