Commentaires : HBM3 Gen 2 : la nouvelle mémoire Micron est la plus rapide au monde?

Principalement destinées aux accélérateurs AI, les nouvelles puces de mémoire Micron HBM3 Gen2 ont un cran d’avance.

On ferait de toutes petites carte graphique avec cette mémoire.
Besoin d’une seule puce de 24Gb et une bande passante x10 par rapport à la GDDR7.
Meilleure consommation, plus petite carte, système de refroidissement beaucoup plus petit.

Bah alors, non ? Trop cher ? c’est quoi l’excuse cette fois ???

1 « J'aime »

Faut quand même un GPU qui puisse envoyer autant de data et les traîter. Puis j’imagine que la disponibilité n’atteint pas celle des autres types

Oui mais imagine le biniou !
Les temps de chargement entre SSD Nvme et mémoire GPU des textures avec Direct Storage. Pas forcément besoin d’un GPU de foufou. Juste ça.

Les difficultés de refroidissement sont énormes => les radiateurs coutent chers. Pas sûr que l’équation soit en faveur de la HBM.
Les seules cartes grand public qui ont utilisé la HBM, ce sont les Vega, certes extrêmement performantes en calcul mais moyennes en jeu (et pas plus petites que les équivalent GDDR) => peu d’intérêt pour ce marché et couteuses pour AMD => on en a plus vu depuis!

Comme dit mon vdd, il y a déjà eu les Vega d’amd en HBM pour le marché mainstream alors que nvidia l’utilise seulement pour ses cartes pro. Utiliser de la HBM c’est plus compliqué que d’utiliser de la GDDR, ça coûte plus cher (merci l’interposer) pour au final pas plus de perf dans les jeux. Car un gpu c’est un ensemble, pas juste une bande passante.

Ne parlons pas du passé.
Parlons avenir, demain, et même après demain.
L’intérêt est celui qu’on lui donne. Hier il n’y avait pas d’IA. Aujourd’hui c’est autre chose.
De la mémoire hyper rapide avec 1 seule puce ultra performante. Des possibilités en IA dans plusieurs domaines comme la reconstruction vidéo, la mise à l’échelle, le filtrage et d’autres fonctions à créer.
Réfléchissons avenir et non passé.
Sinon la voiture électrique a été un échec par le passé. Et bien d’autres échecs dans tous les domaines

Euh oui vu le prix des cartes graphiques, on n’est plus à ça près !!!

Je suis d’accord, il n’y a pas que les jeux dans la vie d’une carte graphique.
Perso je fais du rendu 3D, de la conversion vidéo, du mastering audio/vidéo et d’autres petites choses.
L’accélération CUDA en autre est un vrai plus.
Le goulot est souvent lié à la mémoire.
Et payer pour une carte pro, OK au boulot pourquoi pas mais à la maison, non merci.

Comme déjà dis, imagine une vitesse de chargement du SSD Nvme directement dans la mémoire HBM3.2 avec DirectStorage.
Un truc de fou pour tes textures de jeu.
Une nouvelle façon de créer les jeux avec une lecture quasi instantanée de textures en très haute résolution.

3 « J'aime »

Pour une utilisation pro, ton problème est dans ces 2 phrases! :smiley:
En fait la gestion mémoire dans cartes NVidia est assez peu performante et lourdingue à gérer en Cuda.
C’est nettement plus simple et performant en OpenCL sur AMD. Tu t’en aperçois justement avec une comparaison Vega / 5700 ou l’avantage de la mémoire rapide n’est pas énorme, même en utilisation pro, pour un cout très important.

Mais au final oui, il y a de la HBM sur certaines cartes pro pour des usages très spécifiques, là ou c’est réellement exploité et ou le prix n’a pas vraiment d’importance.

je capte pas un truc, si elle est rapide, pourquoi elle marche pas bien pour les jeux ?

Je me pose la même question :wink:

1 « J'aime »

Ah oui mais AMD en carte graphique, c’est et ça reste non pour moi.
Autant le processeur j’alterne suivant les générations et la performance brute entre les 2 marques, autant pour la carte graphique je reste confiant et addict aux technologies exclusives de Nvidia.
Depuis l’époque d’ATI et maintenant AMD, je n’ai jamais été convaincu par ces cartes.
Mes amis qui avaient des ATI sapphire avaient tellement de soucis avec les drivers et les derniers qui ont osé l’AMD l’ont regretté.
Chacun ses goûts et ses besoins mais de mon côté c’est pas négociable, Nvidia Forever.
Je ne crois même pas qu’AMD a de quoi se battre face à du RTX 4080 et au dessus.
Déjà est ce qu’ils ont de quoi battre une 4070Ti ?
Le Ray-Tracing ?, un équivalent au DLSS3 ?
Alors oui c’est pas des technologies ouvertes mais bon c’est leur business aussi.

Et moi je n’en ai jamais eu aucun, pas même avec une ATI Rage 128 dont les drivers étaient soit disant très mauvais, comme quoi…

C’était l’occasion de rigoler de ceux qui avaient une ATI à l’époque. Entre Glitch, bugs, mauvaises couleurs, Freeze.
Une catastrophe.
Juste la partie vidéo qui était au TOP par contre. le décodage Mpeg était plus performant et les couleurs plus vive quand on faisait de l’acquisition vidéo analogique.

Après c’est comme tout, certains aiment et d’autres non.
Depuis le temps, je lis toujours des situations de bugs dans les jeux, des performances plus basses jusqu’à un hypothétique driver salvateur.
Leur driver est maintenant au niveau mais çà a longtemps été un enfer. Découpé en plusieurs morceaux.
Chez AMD, existe t’il un équivalent à Geforce expérience pour la config automatique des meilleurs réglages pour chaque jeux ?
AMD est-il partenaire de studio de développement et est-ce qu’il y a un plus lorsque c’est le cas face à Nvidia. Non pas vraiment.
Voilà voilà ce que je pouvais en dire.
Loin de moi l’idée d’être ce que certains nommeraient FANBOY. Si un jour ils ont la technologie pour faire mieux dans la durée, pourquoi pas. Je ne suis pas fermé.
Preuve en est, je suis sous Ryzen 9 3900x pour l’instant. J’ai bien eu des Athlon 64 à l’époque.

Si tu le dis…

Mon but n’est absolument pas de te convaincre d’une supériorité quelconque d’AMD, c’est juste une remarque d’un utilisateur d’une techno utilisée seulement par AMD pour le grand public, sans avantage marqué. Je n’ai vu aucun avantage direct à l’utilisation de la HBM, même si sur le papier ça semble mieux. Je n’ai pas de carte pro (pas les moyens ni le besoin :stuck_out_tongue: ), mais j’ai plusieurs cartes AMD (380, Vega56, 6800) et NVidia (1060, 1080 et 3060) pour tester notre appli de simulation numérique et donc j’ai des points de comparaison directs avec la HBM de la Vega.
Et pour info, les problèmes de drivers ne sont pas une exclusivité AMD, NVidia se traine une bonne quantité de versions vérolées aussi, sans compter leur manie de planquer des trucs pour faire bugger les cartes AMD, j’ai des problèmes régulièrement au passage NVidia → AMD qui ne se règlent qu’avec les versions les plus récentes de DDU alors que dans l’autre sens, je n’ai jamais eu de problèmes.
Et pour mon utilisation perso, j’aime les AMD pour leur stabilité et leurs drivers/outils bien plus simples à utiliser (y compris la prog et le support OpenCL), leur rapport perf/prix, j’ai juste eu quelques problèmes avec les taux de rafraichissement au début de la 6800 (tri écrans: 244hz, 90hz et 60hz). J’aime NVidia pour leur réactivité pour corriger les problèmes (crashs drivers sur la 1080 au début, corruption mémoire avec certaines versions de drivers), pour leur performances AI, pour le DLSS (à mon avis, le meilleurs truc depuis le T&L, et meilleur que le FSR pour le moment). Le RT par contre, je n’accroche pas, je n’aime pas le rendu.

C’est le début. C’est vrai que pour l’instant on abuse des effets de reflet. Genre les routes, on dirait qu’elles sont gelées tellement çà réfléchie la lumière.
Alors qu’un simple miroir ils ne le mettent généralement pas !!!
Dans certains jeux c’est un plus, dans beaucoup çà ne sert à rien du tout.

Après il y a du teasing qui fait de gros FLOP comme avec Atomic Heart qui devait être une vitrine du RayTracing et finalement le jeu est nul et ils ont même retiré le raytracing pour le lancement du jeu. Absurde.

OpenCL je n’utilise pas ou alors je ne sais pas que çà l’utilise. Je sais que certains de mes programmes sont codé pour utiliser CUDA. Et çà marche très très bien quand c’est actif.
Surtout des rendus Vulkan+CUDA pour de l’upscaling AI de vidéos

1 « J'aime »

OpenCL, c’est pour des calculs génériques, comme Cuda mais « universel » y compris sur CPU, sauf que les spécificités de chaque architecture sont à prendre en compte et c’est complexe si on veut que ça tourne bien sur CPU et chaque marque de GPU! Donc c’est assez peu utilisé. Dans mon cas, on doit tourner sur n’importe quelle machine, mais il faut utiliser au max le hardware (les calculs peuvent prendre plus d’une semaine sur un PC bureautique avec un Intel i5 + Intel HD, ca diminue à 1 journée sur une bécane 8/16 coeurs + 1080 et 6h sur un 12/24 coeurs + 64Go + RX6800 mais ça reste long (trop pour les utilisateurs! :stuck_out_tongue: ), en CPU pur tu multiplies par 10 en moyenne.
Cuda est très bien, on a fait quelques tests et NVidia nous a même dit qu’ils coderaient en partie pour nous, sauf que l’on est quand même obligé d’avoir de l’OpenCL…

Ouais c’est dommage alors de devoir faire avec OpenCL si c’est moins rapide que CUDA.

De ce que je sais, CUDA est toujours le plus rapide, OpenCL est derrière en AMD mais OpenCL est même dernier sur Nvidia par rapport au rendu Software sur carte graphique.

Mais oui si le matériel est exotique avec du Intel, AMD et Nvidia en GPU, tu n’as effectivement pas trop le choix que de t’orienter vers OpenCL.
Sauf à créer une reconnaissance GPU et utiliser le meilleur rendu suivant le fabricant de GPU. Comme Première, After effect en autre.
Ou DaVinci Recode.
Il y a pleins de logiciels finalement qui intègrent plusieurs type de rendu.

Donc tu ne juges un jeu - qui en passant est plutôt apprécié, selon la plupart des tests - qu’en fonction du RT. neutre

Euh non pas en fonction du RT.
Les démos donnaient envie.
J’ai testé la démo (pour une fois qu’il y a une démo c’est plutôt cool d’ailleurs - il faut le souligner).
Et j’avoue que j’ai trouvé ça assez mauvais.
La presse l’a qualifiée de mauvais BioShock. Ce n’est pas de moi.

Bon après les jeux de ce genre c’est du vu, revu et archi vu. Et les nouveaux concept de cherche, ramasse pleins de trucs et on verra après, je n’aime pas :-1:.
Je préfère juste ramasser des munitions puis une nouvelle arme. Maxi 7 à 9 armes différentes. Zéro personnalisation (y’a rien de pire que de perdre son temps à changer la couleur, la forme etc… dans un jeu et je ne parle même pas des « améliorations » pfff :man_facepalming:)
Et avancer dans le jeu avec l’histoire.