Commentaires : NVIDIA dévoile son nouveau GPU H200 : un monstre de puissance au service de l'intelligence artificielle

Oubliez le GPU H100 avec ses 80 Go de mémoire et sa bande passante d’un peu plus de 3 To/s ; voici le H200, une version surchargée en HMB3e, qui offre encore plus de débit.

700W ! Lol

Un petit réchaud !

C’est une carte destiné au pro / data centre, donc la consommation, c’est pas forcément un problème.

700W peut paraitre beaucoup, mais c’est surement bien plus efficient qu’une 4090 qui peut en tirer jusqu’à 600W selon les tâches, et bien sur, pas le même prix!

1 « J'aime »

oui bien sur, mais quand on voit la finalité de l’usage c’est complètement con… que de ressources dépensées pour du vent…

« version à 175 000 milliards de paramètres »
→ si on veut toutes les données en mémoire, il faut juste 175.000 Go de RAM/VRAM :rofl:

La finalité de l’usage, c’est par exemple Jupiter, le futur plus gros calculateur européen, qu’nVidia a eu le bon goût de mettre en avant dans sa présentation, destiné à faire de la recherche scientifique, principalement dans le domaine pharmaceutique et dans l’environnement. Complètement con ?

Non. 700 Go si on travaille en simple précision, 350 si on travaille en demi-précision. D’où le fait qu’un noeud de 8 GPU (1128 Go de RAM) permette de le faire tourner.

1 « J'aime »

Exclusivement pas pour la Chine !!

Ca c’est TON analyse (bidon), quand à l’IA si tu n’a pas compris que c’est le même niveau de révolution qu’internet ou les smartphones et bien tant pis le monde va continuer sans toi.

3 « J'aime »

Pensez à votre phrase quand vous commanderez des babioles chinoises sur amazon.

can it run Doom?

C’est le GPU H200 qui fait 700W de consommation électrique d’où le (W) entre parenthèse dans l’article, 600W dont tu parle pour la 4090 c’est la consommation électrique de la config entière.