Le GPU
H100 de NVIDIA n’aura pas tardé à se dévoiler plus en détails et, surtout, de manière officielle.
Non merci
C’était pas prévu pour toi de toute façon
4nm + savoir faire NVIDIA = CG qui vont dépoter
Ça devrait envoyer du lourd en effet mais à quoi et à qui de tels GPU se destinent ils ? Pour GeForce Now ?
C’est fort possible, pour faire une offre « 4080 » pour remplacer le A10G l’année prochaine.
Il sont utilisés pour l’IA avant tout, recherche scientifique etc…
La consommation commence vraiment a m’intéresse énormément et les GPU commence vraiment a consommer énormément, c’est pas une questions d’argent mais vraiment çà commence a être chaud
nvidia devrait aussi se lancer dans les centrales à charbon, tant qu’à faire ! Et on peut dire que nvidia n’est pas un champion de l’écologie.
700 W ? Et pourtant c’est du 4nm !
Bon en gros eux et Intel sont définitivement dépassés.
On rappellera que déjà la loi Californienne interdit certains PC à la vente parce qu’ils consomment trop.
Entre le risque que ce genre de loi apparaisse ailleurs, et de toute façon un prix de l’électricité qui va exploser, de plus en plus de clients seront tout simplement obligés de se tourner vers des produits avec un rapport performance/consommation plus rationnel.
Le pire c’est que doubler la consommation ne double absolument pas les performances. Là ils sont vraiment au bout de leurs choix technologiques.
@LeVendangeurMasque : mais oui c’est cela. Va donc leur expliquer comment faire.
Vu la consommation qui augmente en flèche, ils seront bien obligés de la réduire tout en conservant les performances ?
ça voudrait dire une génération fin 2022 ou fin 2024 qui n’aura pas un gap de performances énorme pour réduire cette conso ?
Question de curiosité car une 3080 qui consomme 330W pour ma part c’est énorme déjà
On voit quand même qu’on arrive au bout de la technologie de gravure. S’ils ne sont plus capables d’augmenter les performances qu’en augmentant la consommation électrique, c’est que la finesse de gravure diminue beaucoup moins qu’ils ne le font croire.
Oh tu sais je suis sûr qu’ils savent bien déjà qu’ils sont dans la merde. Faut dire qu’en fait c’est l’architecture x86 qui est dans une impasse. Donc eux tout seuls ils peuvent pas y faire grand chose.
Ni toi ni moi n’avons de piste d’amélioration à cette situation. Y’a qu’en repartant de zéro que le PC à un avenir…
Mais bon Nvidia peut bien faire comme Intel et continuer à se persuader que tout va très bien et que le client sera près à mettre toujours plus cher dans une architecture dépassée et au rendement ridicule.
Dans le genre Nokia et Blackerry avaient fait le même pari…
Et le pire c’est que c’est pas qu’un problème de mettre une alim plus grosse (et la facture d’élec qui va avec…). Faut aussi les dissiper les 700W. Faut aimer le bruit et la chaleur…
C’est vraiment ça qui me dérange vraiment. Ca deviens trop important la consommation devient trop importante pour passer crèmes. Non moi çà deviens bcp trop chaud pour moi. Carrément lan prochain cest 1kwh non je passe.
20 Tflops pour environ 60W.
Tu vas vite voir bondir ceux qui vont te dire: « oui mais la 3090 elle fait 30 Tflops ! ».
Alors 2 détails à prendre en compte:
1/ La 3090 c’est au moins 300W. Soit donc par TF, une consommation 3 fois supérieure. C’est pas réjouissant pour l’avenir…
2/ La 3090 n’ira pas forcément beaucoup plus vite en pratique: déjà parce que sa ram est limitée, alors qu’un M1 peut utiliser toute la mémoire de l’ordi si besoin. Et que parce que la mémoire n’est pas unifiée les échanges CPU-GPU sont extrêmement pénalisants sur un PC.
On est tous d’accord, je pense, après ici c’est pas fait pour « nous » c’est un marché pro et encore une petite niche de pros, pour les « notres » je ne sais pas, les rumeurs indiquent une conso de dingue (enfin, encore pire que maintenant), mais bon les rumeurs … on sera vite fixé, après perso je ne changerais pas de GPU avant … quelques années j’espère ^^
le m1 ne prend pas cuda ou opencl, donc au revoir pour le pro
La c’est pour des server de calcul donc inutile de comparer la conso etc au gpu grand publique.
c’est une niche
a moins d’avoir plein de server de calcul chez vous ce n’est pas destiné à vous