Commentaires : GeForce RTX 4090 : il n'y aurait pas comme un problème avec le connecteur 12VHPWR?

Donc en gros tu achète une carte a 2000 € pour la faire tourner moins vite, utilité?
Je préfère me limiter à une carte à 500 € max qui fera très bien son boulot dans 95 % des cas.
PS: pour la 4090 j’ai pas envie de rajouter en plus le prix d’une alim, ma 620 me suffit largement.

Sauf que l’astuce que j’ai donné n’est pas du tout limitée aux cartes à 2000€, ça fonctionne aussi très bien sur celles à 500 et moins. Et même sur celles d’occasion à 50 balles.

L’utilité, c’est que jusqu’à un certain point tu gagne plus en consommation que tu ne perds en vitesse de traitement. Pour résumer de façon simpliste, les derniers pourcentage de puissance coûtent beaucoup plus cher que les premiers.

Après, c’est aussi une question de chance. Suivant la qualité des circuits, tu peux parfois arriver à tourner à la fréquence d’origine en gagnant quand même un peu d’énergie. Le tout est de voir à partir de quand le circuit devient subtilement instable.

Et également en activant le Vsync (ou le limiteur de framerate dans les drivers nVidia), surtout dans les jeux légers où la carte est capable d’aller beaucoup plus vite que l’écran.

C’est exact, excellente astuce.

Dans une grande majorité de jeux, ça ne sers effectivement à rien de calculer plus d’images que l’écran n’est capable d’en afficher. C’est juste un très gros gaspillage de puissance de traitement et d’énergie.

@Palou

et aussi en mettant l’écran en 800x600, voire 1024x768

Sans aller jusque la, beaucoup de jeux ne peuvent t’ils pas se contenter du Full HD ?

Alors bien sûr, chacun répondra à cette question selon ses critères personnels et en fonction de ce qu’il apprécie dans les jeux. Mais ça vaut peut être le coup de se poser la question.

Une idée reçue est de croire qu’on serait obligé de jouer à la résolution native du moniteur sauf à perdre en qualité… et dans certains cas c’est vrai.

Mais il y a des exceptions. Par exemple, un écran 4k est capable de redimensionner sans perte de qualité une image 1920x1080 vu que ça représente exactement un facteur 2.

La France n’est pas le centre du monde. Un grand nombre d’autres pays ont des prix bien plus bas que le votre. Perso je paie le KWH 0,04 euros (6c$).
Donc vos arguments : Ca ne se vendra pas, il faut qu’ils s’adaptent …

1 « J'aime »

La grande question, c’est en faisant passer 600W dans un câble de cette section, combien de temps avant qu’il fonde ou prenne feu ?

Et de quel pays s’agit-il ? quelque chose me dit déjà que ce ne sera pas du tout comparable avec l’Europe. neutre

Ça fait 100W par câble, donc 8.3A, c’est pas monstrueux, c’est moins que ce que supporte un câble 18 ou 16AWG (respectivement 9.5 et 15A), qui sont les formats qu’on trouve habituellement sur les alims.

La France n’est pas le centre du monde. Un grand nombre d’autres pays ont des prix bien plus bas que le votre. Perso je paie le KWH 0,04 euros (6c$).
Donc vos arguments : Ca ne se vendra pas, il faut qu’ils s’adaptent …

Et quel est le salaire moyen dans le pays en question ?

Et au-delà des salaires et du prix de l’énergie, quid du reste ? il y a toujours des revers aux médailles. ^^

Je parle de l’arrivée : on passe de 600W sur 32 pins (et donc 32 fils) à 600W sur 12 pins (et donc 12 fils) de même section

R’marque, s’ils achètent cette hérésie … rien ne dit qu’ils aient encore les moyens de payer l’électricité après.
Et même si ça doit servir à de la spéculation, les mineurs ont lâché l’affaire depuis que les cours de la crypto baissent.

Au bout des 30-40 débranchements, est ce que c’est le cable qui sera défectueux, le slot sur la carte graphique, ou les deux?

Oui, je parle moi aussi de ces 12 fils à l’arrivée. 6 paires pour 600W, ça fait 100W par paires, et donc sous 12V, 8.3A dans chaque fil. Ce qui est conforme à ce que peut encaisser un fil 16 ou 18 AWG, qui sont typiques de ce qu’on a en sortie des alims.

Si les 32 fils en entrée ont la même section, c’est simplement qu’ils sont largement surdimensionnés.

C’est les tarifs du Canada. Mais a New York c est « juste » le double.

C’est sur que ça ne règle pas le problème de consommation excessive de ces cartes, mais je répondais juste aux arguments : « C’est trop cher l’électricité alors personne ne peut s’acheter ces cartes »

Sujet délicat de commencer à comparer tout et n’importe quoi …
Je te parle d’électricité et de coût d’une telle carte au quotidien.

Et bien le nombre de gemmes nécessaires pour acheter un cosmétique c’est 1600 de mémoire et 1600 gemmes c’est 25 euros non ? Après il y a ceux du passe de combat pour 4,99 € pour celui qui joue c’est déjà plus réaliste.

tu consommes pas 450w en permanence… juste quand la carte est exploitée au max.
Et avant c’était 250-300w…ça change quoi au final ? 150w de plus ?.soit 38 euros annuel si ta carte tourne 24h sur 24h à fond ! ça va pas péter loin…
Donc en l’utilisant comme un no life 12h par jour (impossible car pour avoir une 4090 faut bosser), elle va coûter 19euros de plus par an qu’une 3080… soit 2 menu bigmac…

Une RTX 3060, c’est 170w pourquoi comparer avec du haut de gamme utilisé par 5 a 10% maxi des gamers???