Commentaires : NVIDIA Hopper H100 : un GPU à 40 000 dollars... complètement nul en jeu vidéo

Parce que les cartes graphiques ne sont pas nécessairement conçues pour les amateurs de jeu vidéo.

« Mon marteau n’arrive pas à viser des écrous. » Ça aurait pu être le titre.

11 « J'aime »

Ben c’est sur que si elle est pas prise en charge par un pilote ….ça va moins bien marcher. Mais il devait s’y attendre quand même

40000$ jetés aux orties pour une carte dont les drivers ne sont pas encore disponibles… Pour faire correctement tourner un jeu…
Le monde serait-il devenu cinglé à ce point?

C’est pour l’IA. Il me semblait que Nvidia avait présenté un GPU à plus de 300Go de mémoire.

Encore un qui a oublié que le cerveau est dans la tête et pas dans les pieds :roll_eyes:

2 « J'aime »

Test débile et inutile…Mon écran 1440P ne fait pas de 8k…Oui normal…Ha ba oui il est fait pour faire du 1440P…

Je ne vois pas en quoi le test est débile ? La carte a forcément des drivers sinon aucun jeu ne se lancerait et on peut se demander quelle perf on va obtenir. C’est facile de critiquer une fois que l’on a la réponse :wink: J’ai déjà testé des jeux avec des quadro (à l’époque où la gamme existait encore) qui ne sont pas fait pour les jeux non plus et ça marchait pas mal.

Ici l’équivalent serait plutôt la gamme Tesla (pas les voitures hein) avec ses cartes fait pour être dans un rack et sans sortie vidéo, là on peut se douter que l’implémentation de Direct3D ne sera pas au top :stuck_out_tongue:

Si j’avais eu cette carte sous la main moi aussi j’aurai fait le test c’est sûr !

@PHILIPPON Evidemment qu’il ne les a pas acheté … son entreprise doit en avoir et il a juste fait le test…

C’est pas pour les jeux, c’est pour le calcul et surtout l’IA grâce aux nouveaux coeurs tensoriels qui entre autres peuvent gérer le FP8 qui est 2x plus rapide (le FP16 étant déjà 2x rapide que le FP32). Les 80 Go c’est pour stocker les paramètres qui prennent une place folle sur les nouveaux réseaux neuronaux (même un vieux GPT2 a du mal à tenir sur 8Go)

tiens…j’ai la même carte…

C’est surtout pour prouver qu’ils peuvent avoir les dernières techno américaines malgré les blocages. Car cette nouvelle carte destinée aux IA est exactement le genre de produit concernés par le blocus.
Pure propagande.

Il y a 25 ans j’entendais souvent le terme military class.
Un particulier ou un professionnel ne pouvait avoir accès à une certaine puissance.

Le futur…

Un autre échantillon…

J’avoue, les articles sont obsolètes et incomplets pour un PC ou serveur ou même console de jeux. :sweat:

Je ne pense pas que les termes Military class faisaient référence à de la puissance, mais plutôt à des conditions d’utilisations, chaleur ou froid extrêmes, vibrations, insensibilité aux perturbations, durée de vie et autres. ^^

Exemple :

https://event.msi.com/mb/Military_Class_II/en/Military_class.htm

1 « J'aime »

:confused:

Ça c’était il y a 15 ans et encore, configurer le spectrum machintruc à disparu depuis.

En effet, s’il est parvenu à lancer divers benchs et jeux vidéo, Geekerwana n’a pas été impressionné par les résultats indiquant que le faible nombre d’unités ROP agit comme un dramatique frein par rapport à ce que peut produire une carte GeForce.

La fréquence est pas la même sur toute les CG, d’où à faible fréquence un plus grand nombre de ROP.

4x40000$ , il est pour quand le simulateur de ROP ?
Après, la raison de pourquoi le passage de bus 64bits à 128bits à 192bits à 256 bits à 384bits à 448bits à 512bits à etc…

La loi de moore était accompagné d’un truc particulièrement absurde.

A chaque carte son usage… Une D700 de 2013 est plus performante qu’une 4090 de 2023 pour faire des calculs flotants en double précision.

Life is life.