Normalement, le ventilateur tourne en fonction de la T°C du processeur, pas en fonction de la T°C de l’air au niveau du radiateur.
Oui, mais avec un même radiateur, pour atteindre la même température GPU avec une consommation plus élevée il faut augmenter le flux d’air. Donc avec un GPU qui consomme plus, si on n’augmente pas la taille du radiateur, il faut adapter le contrôle de la vitesse des ventilateurs pour ventiler plus à une même température (sinon la température sera inévitablement plus élevée).
Je ne m’y connais pas incroyablement en thermique, mais je pense que justement, on peut presque parler de gradient thermique en fonction de la surface du processeur.
Plus ton processeur à une grande surface, plus la T°C est basse au niveau de l’interface processeur/radiateur. Plus la différence de T°C entre l’air et l’interface processeur/radiateur sera semblable. (genre 60°C interface, 40°C air, pour un même radiateur et même débit d’air à TDP constant).
Plus ton processeur à une petite surface, plus la T°C est haute au niveau de l’interface processeur/radiateur. Plus la différence de T°C entre l’air et l’interface processeur/radiateur sera grande. (genre 90°C interface, 40°C air, pour un même radiateur et même débit d’air à TDP constant).
Je ne sais pas trop si on peux parler de goulot d’étranglement thermique au niveau de l’interface.
Il peut y avoir un goulot d’étranglement au niveau de l’interface entre le GPU et le radiateur.
Mais la capacité d’évacuation de chaleur du radiateur n’en est pas moins essentielle : le « débit » de chaleur au niveau de l’interface GPU/radiateur est directement proportionnel à l’écart de température entre le GPU et le radiateur.
Si le radiateur monte en température parce qu’il ne parvient pas à évacuer la chaleur qu’il reçoit du GPU, ça réduit le débit de chaleur entre le GPU et le radiateur. Et donc il faut que la température du GPU augmente pour que le débit remonte (il doit être égal à la consommation du GPU).
Si tu augmentes la consommation du GPU, il ne suffit donc pas d’augmenter la capacité de l’interface entre le GPU et le radiateur, il faut aussi augmenter la capacité du radiateur à dissiper la chaleur qu’il reçoit du GPU.
Et ça, ça ne peut se faire que de deux façons (hors changement radical de technologie) : augmenter la surface du radiateur ou augmenter le flux d’air.
Vue la taille des radiateurs actuels, pour passer de 450W à 700W il y a peu de marge de manœuvre sur la taille du radiateur (ça donnerait des cartes incompatibles avec un grand nombre de boîtiers), donc il faudra jouer sur le flux d’air. Et donc le bruit.
Enfaite mise à part l’augmentation de la résolution d’écran et du refresh rate, les jeux n’avancent plus.
On nous parlait du multi core pour l’IA, la physique, et pleins d’autre trucs, et au final c’est toujours pareil voir même pire.
Sans parler que les jeux deviennent de plus en plus creux.
Je ne parle que de quelques points, du coup je me demande de l’utilité de sortir ce genre de produit niveau conso pour avoir toujours la même chose qui va peut être enfin tourner en 4k120 mais qui sera toujours pauvre sur plein de promesses et qui pourrait faire du 4k120 si il y avait de l’optimisation réelle.
Je parle pour le domaine grand publique.
Je n’ai pas le temps de chercher, mais il faudrait trouver des tests de watercooling sur Intel Atom 26 mm² pour bien montrer le lien entre surface de die et T°C. Je n’ai réussi qu’à trouver un test avec azote liquide où le CPU est à 4°C (ce qui est énorme d’ailleurs compte tenu de la T°C de l’azote liquide normalement) (Intel Atom N270 Overclocked to 2385MHz, Probably the Fastest Atom Ever | TechPowerUp) alors que le TDP semble être extrêmement faible compte tenu de la fréquence atteinte.
Ca, je ne sais pas justement.
Pour reprendre l’exemple de l’Intel Atom de 26 mm², il ne suffit pas d’avoir un très bon air-cooling pour dissiper ne serait-ce que 100 W.
De plus, 75°C réparti sur 100 mm², c’est moins d’énergie que 75°C réparti sur 400 mm².
Si il te faut 100 W pour atteindre 75°C sur une surface de 100 mm², il est probable que pour atteindre la même T°C sur une surface de 400 mm², il te faille 400 W de puissance (dans la pratique, ça sera probablement moins).
La T°C ne rend pas compte de l’énergie. Tu peux prendre l’exemple d’une bougie ou d’un briquet tempête où la T°C de la flamme atteint probablement (j’ai pas cherché) plus de 1000°C mais l’énergie thermique totale reste faible car cette T°C n’est atteinte que sur une minuscule surface.
@+
Nota : Ici, un test de watercooling/overclocking d’un Core i5 3570K 160 mm² 77 W @ 3,4 Ghz origine vers 5 Ghz (probablement environ 165 W = 77 x (5/3,4)²), soit environ 1 W / mm² @ 75°C.
Observe les T°C, sachant que 165 W, c’est peu, et on est en watercooling.
Par exemple, le watercooling ROG Strix LC monté sur la RTX 3090Ti 628 mm² permet d’atteindre 500 W @ environ 60°C.
https://www.techpowerup.com/review/asus-geforce-rtx-3090-ti-strix-lc/36.html
https://www.techpowerup.com/review/asus-geforce-rtx-3090-ti-strix-lc/37.html
C’est le cas. C’est une règle de thermodynamique. Le flux thermique a une interface entre deux objets de température différentes, c’est W=C * dK * S avec C une constante dépendant des matériaux, dK la différence de température entre les deux objets et S la surface de contact.
C’est cette formule qui explique d’ailleurs la raison d’être du radiateur. Avec une interface air/métal, C est faible. Il faut donc un S élevé. Comme le S d’une puce est faible, on ajoute dessus un radiateur, avec une interface puce/radiateur dont le C est élevé, et ensuite le radiateur offre une très grande surface pour l’échange radiateur/air avec un C faible.
C’est pour ça que sous un même radiateur et avec une même surface d’échange, une puce consommant 100W va être plus chaude qu’une puce consommant 10W. Il y a un flux de chaleur 10 fois plus grand à échanger avec le radiateur, il faut donc que l’écart de température entre la puce et le radiateur soit multiplié par 10.
Par exemple, si tu as une puce qui fait 35°C au repos en consommant 10W avec le radiateur à 30°C, la même puce consommant 100W en pleine charge montera à 80°C (en supposant que le radiateur reste à 30°C… en pratique il y a aussi de fortes chances que la température du radiateur augmente, et donc la puce montera encore un peu plus haut). (Note : ce paragraphe simplifie un peu en considérant que chaque élément a une température unique, en pratique c’est encore un peu plus compliqué, car au sein du radiateur tu as un gradient de température, le radiateur est plus chaud à sa base qu’au bout de ses ailettes, et la conductivité thermique du radiateur entre du coup également en compte dans l’évaluation de son efficacité, c’est pour ça qu’un radiateur avec une base en cuivre et/ou des caloducs est plus efficace qu’un monobloc en alu, l’alu ayant une plus faible conductivité thermique)
Inévitablement, si tu as plus de puissance à dissiper au niveau de la puce, tu en auras aussi plus au niveau du radiateur (qui foit dissiper exactement autant que la puce), et donc soit il faut augmenter la capacité de dissipation du radiateur. Ce qui nécessite d’augmenter sa taille ou le flux d’air.
C’est pas pour rien que les 3090 Ti on un radiateur beaucoup plus gros que les 3050 hein, c’est pas juste parce que le GPU est plus gros, mais bien parce que la puissance à dissiper est beaucoup plus grande. Une puce consommant dix fois plus et ayant dix fois plus de surface échangera tout aussi efficacement avec le radiateur (ie le dK au niveau de l’interface puce/radiateur sera le même), mais derrière il faut aussi que le radiateur parvienne à évacuer tout ça, sinon sa température augmente, et donc, celle de la puce augmente (puisque le dK entre la puce et le radiateur est imposé par les règles de la thermodynamique, si la température du radiateur augmente, celle de la puce augmente d’autant).
Justement.
Ce n’est pas la T°C de l’air en bout de radiateur qui compte (dit au dessus), mais bien la T°C du CPU/GPU. Avoir 30°C en bout de radiateur ne suffit pas si ton CPU/GPU est à 80°C. Et pourtant, c’est cette configuration que tu observeras dans le cas d’un CPU/GPU de petite surface couplé à un gros refroidissement (watercooling inclus d’ailleurs).
Je t’ai montré l’exemple du i5 3570K watercoolé parce que c’est un CPU pas trop gros. Mais il faudrait trouver des CPU/GPU encore plus petit et qui soient overclocké/watercoolé pour bien montrer qu’il ne suffit pas d’avoir un bon refroidissement pour dissiper une forte puissance.
Malheureusement, je n’ai plus le courage de chercher.
@+
oui techniquement une bonne maj de firmware éviterait de changer sa carte graphique on y rajoute éventuellement des slots mémoires comme sur les cartes mères et c’est suffisant. mais apparemment c’était pas vrai il fut une époque
Je réponds très tard, parce que je n’avais pas vu le message, mais … NON, juste NON.
Il faut arrêter de dire n’importe quoi quand-même …
Les Voodoos, quelque que soit leur générations ne supportent pas le moindre langage de shaders.
Et je ne parle même pas de la taille mémoire, ni de la limite en taille des textures.
Et last but not least, les Voodoo, jusqu’au 3, inclus ne supportent les couleurs que sur 16 bits.
Ça peut être vrai côté CPU (et encore, les langages managés, certes ça bouffe des perfs, mais c’est pas que de la non optimisation, c’est aussi pour apporter des améliorations en stabilité et en sécurité), mais je doute que ça soit le cas côté GPU, il me semble que les GPU sont encore adressés de façon assez bas niveau, notamment via les shaders.
Par contre tu peux avoir la partie CPU du moteur du jeu qui est super mal optimisée et fait que la CG n’est pas « alimentée » suffisamment en travail, mais dans ce cas là elle se tourne les pouces (et donc consomme moins notamment), sa puissance n’est pas utilisée pour « avaler » la non optimisation.