Je suis passé d’une 2070 à une 4070 pour 25 watt de différence. Vu la différence de perf je trouve cela très raisonnable.
« quelques années », ça peut être court entre la recherche fondamentale et un produit industrialisable en masse pour le grand public…
Et mon laptop avec la petite gtx 1650 qui fait du tout juste 45fps sur forza 5 en moyen full HD et c est meilleur qu une puce m1.
Perso j attend les nouveau cpu mais une 4050 laptop sera bien suffisant, et en tour inutile les 90 c est surtout du démonstration de puissance une 60 ou 70 font très bien le job
dans un laptop j’ai une 2060 80W qui marche tres bien, cyberpunk raytracing dans mandjaro = OK
Et dans ma tour une 3060 12gb et 4060 Ti 16gb, j’utilises le curve editor de afterburner, du coup ces deux cartes devraient consommer ensemble dans les 330W, j’en suis à 240W max.
Les deux cartes c est pour l’inference et charger des gros LLM.
Par contre pour jouer c’est la 4060 ti 16 gb, je ne dépasse pas 115W au lieu des 165, la frequence est bloqué a 2500 à 0.9V, j’ai perdu réellement moins de 10% de FPS pour une baisse de de conso d’environ 30%.
Ces futures cartes 50XX suivront la même rendement voir mieux, ce n’est effectivement pas une conso annoncée qui t’oblige à la suivre.
Il faut juste regarder ce qui offre le meilleur ratio perf/Watt, souvent on le retrouve dans les ordi portables. Par exemple regarde un comparo sur youtube entre une 4060 à 45W et 115W :
c’est édifiant… la conso est divisée par 2,5 mais pas les FPS de très loin, rien que le premier jeu testé passe de 90fps à environ 70.
Bonsoir,
D’abord, vous devez confondre ou votre imagination vous joue des tours.
Donc, non, on ne se connait pas, vous êtes qui ?
En suite, je ne vois aucune propagande, ça veut dire quoi ?
Parceque je m’intéresse aux brevets chinois, ils sont juste forts, que vous dire de plus? Ils arretent pas de publier …
Vous avez un soucis avec les chinois ? Parce que là …
Je ne comprends pas la valeur ajoutée de votre intervention.
Très intéressant comme article ainsi que votre commentaire j’imagine que pour les modèles plus haut de gamme comme une 4090/5090 une conso réduite d’environs 30% ne vont pas impacter la fluidité d’un titre exigeant si le 1% low FPS reste stable évidemment.
@SPH l’architecture d’un transistor est tres complexe : source drain oxyde et matériaux spéciaux
@Blackalf quel commentaire ridicule et à la limite de l’idiotie : mon laboratoire francais travaille sur le Hafnium depuis des annees, je le caracterise depuis 10 ans. Les labo du monde travaillent sur ce genre de materiaux et meme les chinois a qui on doit des avancees … des publications de premiers ordre sortent de bcp de labo dont les chinois …
@theluxmen toi tu as été matrixé un i9 cest pour les pro et une 4090 pour jouer et pas l’inverse … tu veux des sources techpowerup, hardware unboxed , vcg, hardware canuks etc… et puis mets a jour ton bios en 0x129 pour ne pas cramer ton i9 … c’est intel qui te le dit
@Nerces merci pour l’article … jespere de mon cote que le standard 12vhpwr sera modifié pour une meilleur securité … 600w cest beaucoup
J’ai 4-5 vm qui tourne et je fais en perso de la 3d avec blender.
Donc non j’ai acheté mon matos pour repondre a mes besoins.
Et puis je garde mon matos 7-8ans.
Avant j’avais un i7 6700 et une gtx 980, je prends des bon composants pour etre tranquille longtemps.
A coté de ca j’ai mon cloud maison sous nextcloud qui tourne h24 sur un n100. La machine consomme 6watt.
Chaque produit repond a un usage, mais le x86 c’est ce qu’il se fait de mieux pour du serveur pc basse conso (mon n100 a 120€ explose n’imoorte quel carte arm pour ce prix) ou pour le top du top en puissance.
Entièrement d’accord. Je pense que NVIDIA se met des oillères car ils ont le monopole, donc ils ont le lux de se permettre de faire tout et n’importe quoi.
Mais en effet si un jour Apple ou un autre se met à produire des CG aussi performantes que celles d’Apple, pour le gaming, la NVIDIA va trembler des fesses.
Perso je trouve que NVIDIA va de mal en pire : des proc de plus en plus énergivores, des procs de plus en plus gros qui engendre des problème de compatibilité sur les boitiers, voir de solidité, des problèmes de conceptions baclées en engendrants des problèmes de masse… Bref NVIDIA n’est clairement plus sur une pente montante et ça se voit sur le courbe à la bourse. On attends juste un vrai concurrent sérieux pour redistribuer toutes les cartes.
Ton besoin justifie pleinement un gros proc meme si je serais parti vers une autre archi moins gourmande en energie
Par contre tu ne precises pas les jeux joués et la res/freq de ton ecran
Quant aux proc n100 /n95 cest pour des minimachines superbes pour une utilisation h24 j’en ai plusieurs. Et avec plus de ram que rpi ![]()
![]()
avec qui je suis limité…
Pas du tout ridicule, nous savons très bien à quel membre nous avons à faire, le sujet n’est pas la Chine dans la réponse de Alf, inutile de prendre la défense de ce forumeur sans connaitre le dossier !
le bitcoin n’est-il pas un jeu aussi ![]()
A part faire des graphiques à la ACNH (assez jolis d’ailleurs!
), il y a très peu de marge d’optimisation.
Je ne sais pas d’ou vient cette image récurrente des « jeux pas optimisés ».
Dans tout ce que j’ai vu, les jeux les « moins optimisés » affichent juste plus de choses que ceux « optimisés », à part quelques détails mais qui ne changent pas globalement le résultat.
Après je ne connais pas tous les jeux! ![]()
C’est tout à fait possible. Dans un appartement mais pas dans ta chambre!
On est actuellement loin de la miniaturisation des circuits intégrés.
Et je pense que la conso doit être quand même importante vu le nombre de cellules optiques qu’il faudrait (quelques dizaines de milliards) pour faire l’équivalent d’un GPU!
Je te suggère de te calmer, que tu sois membre ou non du club « Je crois que je peux insulter impunément un modérateur ». ![]()
Ma remarque adressée à ce membre concernait le fait qu’il compte pas moins de 5 comptes dont plusieurs créés pour contourner des sanctions. Lorsqu’on ignore les tenants et aboutissants, mieux vaut ne rien dire.