Commentaires : Quand NVIDIA s'offre une plongée dans sa conception de la mémoire vidéo

Les GPU des cartes graphiques NVIDIA mettent l’accent sur la quantité de cache L2 embarquée… un peu comme les CPU AMD, non ?

« les deux versions de la GeForce RTX 4060 Ti (8 Go et 16 Go) peuvent jouer avec des paramètres maximums et offriront les mêmes performances »
Bizarre d’affirmer cela d’un point de vue marketing. Après en 1080p c’est sûr que 8Go de VRAM suffit.
Vivement les tests en effet.

mouai et avec cela des jeux optimisé à la pelleteuse sur 8Go de vram ça suffit

Suffisait. De plus en plus de jeux commencent à galérer avec seulement 8 Go de vram en 1080.

Principalement à cause de la fainéantise des devs.

Un jeu n’est pas qu’un truc de dev.

Le diagramme UML est même plutôt compliqué rien qu’à la représentation de l’équipe qui est en plusieurs sous équipes avec de multiples interactions.

Les bugs arrivent plus tard. Il y a même des équipes de devs saboteurs qui corrigent des bugs et rajoutent d’autres bugs ailleurs.
Souvent c’est quand le produit se fait pirater, mais l’impact est même pour les honnêtes.

Vous voulez des jeux plus beau, plus réaliste? Bah ça signifie une augmentation des polygones, des résolutions des textures, des effets de lumières et des effets de particules.

Juste un pack de texture haute résolution, peu importe la résolution du jeu, va avoir un impact majeur sur la vram

T’aurais mis ça sur la rationalisation des couts de la part des éditeurs de jeux-vidéo, ça aurait été discutable, mais why not.
Mais dire que c’est « à cause de la fainéantise des devs », alors que ces mêmes développeurs se retrouvent à bosser limite comme des esclaves (crunch, etc…) c’est (dans le désordre) : complètement ridicule, idiot et déconnecté de la réalité.

Après vu que t’as l’air bien meilleur, tu devrais te lancer dans le dev de jeux-vidéo. Vu qu’apparemment tu serais en mesure de faire tourner Star Citizen sur un calculatrice, tu feras un malheur :slight_smile:

« en mesure de faire tourner Star Citizen sur un calculatrice » c’est tout à fait possible. Juste long, très long, trop long

Je n’imagine pas les performances avec du cache en plus sans toucher au bus mémoire

1 « J'aime »

Pas sûr. L’optimisation en amont (optimisation artistique), a justement besoin de pas mal de mémoire pour être efficace…

1 « J'aime »

GPU H100 Tensor Core | NVIDIA

HBM3, le paradis des mineurs de crypto ? :thinking:

Ce que tu dis n’a aucun sens.

Connais tu les moteurs graphiques, avec les utilisations des textures multi passes, les shaders, la gestion du LOD, les différents filtrages, …? Toutes ces techniques peuvent éventuellement faire économiser de la mémoire mais en global en consomme plus, de plus les jeux sont de plus en plus fournis en détails et le résultat, c’est un besoin accru en mémoire (et pas linéairement avec la précision des détails!) si on veut des performances correctes.
Un exemple problématique ces derniers temps: les shaders. C’est mis en lumière par la précompilation pas toujours bien maitrisée dans certains cas (je sais la compilation n’a pas grand chose à voir avec le sujet :stuck_out_tongue: )… Ca permet des effets géniaux ultra performants sur les GPU récents. Si il faut faire des aller-retours en entre la RAM et et la VRAM pour charger / décharger les shaders suivant ce que l’on doit afficher, on perd une bonne partie de l’avantage. Même chose pour les textures dont la réutilisation est optimisée mais si on a pas la VRAM pour les garder, ça ne sert à rien.
Après, ce n’est que mon expérience qui ne concerne pas directement les jeux vidéos. Si tu as des autres infos plus précises, ça m’intéresse.
J’ai un peu de mal avec la prétendue fainéantise des développeurs de moteurs ou de jeux. Quand j’analyse ce qui est affiché dans les jeux actuels, on est vraiment sur de l’utilisation efficace du hardware, surtout impressionnante d’ailleurs par la diversité du matos supporté (puissance brute et facilité de la gestion mémoire du matos AMD, curiosité d’architecture et faiblesse mémoire Intel, efficacité des filtrages et performance des accès mémoire NVidia).

1 « J'aime »

Un exemple précis : Forspoken a été développé avec la PS5 comme plateforme lead. Le jeu a été hardcodé pour la vram alloué par la PS5. Soit 12 go. Les devs ont correctement exploité les 12 go qui était à leur disposition. Ça c’est très bien.

Quand il est venu le temps de créer le portage PC, là ils ont fait face à des tas de problèmes. Comme ils avaient pas anticipé la gestion de mémoire différente entre une console et un PC, ils avaient deux choix possible : revoir la gestion de la mémoire mis en place pour s’accommoder des contraintes du matos PC (ce qui prends beaucoup de temps et d’argent) ou tailler dans le gras en priant pour que ça passe, et au pire on fera des patch après.

Je te laisse deviner qu’elle a été la solution choisi… Elle est là la fainéantise des devs. Mais c’est pas vraiment de leur faute, ils sont contraint par leur éditeur. Mais contre c’est de leur faute que de ne pas avoir dit : « non on peut pas sortir un jeu dans cet état là ».

Après quand je dis « les devs » je devrais dire le studio. Car c’est à tout les niveaux que des choix sont fait, que des décisions sont prises. Et malheureusement c’est systématiquement le choix de la facilité / simplicité qui est fait.

Regarde RedFall ! Tu vas pas me dire qu’ils étaient pas au courant de tous les problèmes ? Bien sûr que si qu’ils le savaient. La plupart du temps c’est même fait exprès. « Il faut produire, il faut que ça sorte, donc on corrigera plus tard ».

Et concernant la vram il y a un vrai problème de ce côté là. Les GPU les plus performants ont souvent beaucoup de vram. AMD et les console de 9e gen popularise le + de 8 go de vram. Et que vont faire les studios ? Ils vont développer en priorité pour +8. Et pour ceux qui auront 8 et moins, on fait au plus simple : deux trois options pour tailler dans le gras, tant pis pour eux si ils auront un jeu degueulasse.

Ils pourraient très bien faire en sorte que le jeu soit top avec 8 Go de ram. Mais comme ça prendrait du temps et des ressources ils font le choix de délaisser les config milieu et bas de gamme. C’est en cela qu’ils sont « fainéants » (d’une certaine manière).

2 « J'aime »

Alors, oui, je suis tout à fait d’accord si ton « développeurs fainéants » veut dire « studio qui ne donne pas les moyens aux développeurs » (quelque soit la raison, mais bien sûr finalement toujours financière! :smiley: ).
Cependant, il ne faut pas s’attendre au miracle. Les jeux qui sont encensés comme « bien optimisés » ont juste trouvé des bons compromis dev / artistique. Une analyse fine permet de voir que souvent l’impression de détails et le réalisme sont juste dus à quelques tricks habilement choisis, mais souvent techniquement ce ne sont pas les meilleurs images et les plus génériques, il y a souvent une plateforme « sweet spot » précise (souvent console d’ailleurs comme tu le remarques).

C’est pas parce que ça sort qu’ils ne l’ont pas dit… Si tu savais le nombre de fois où j’ai levé ce genre d’alerte (pas dans le domaine du jeu vidéo, mais c’est pas mieux ailleurs) sans que ça soit pris en compte…

Et en partie à raison d’ailleurs, parce que les développeurs ils ont tendance à être dans la position extrême inverse par rapport aux financier : ils veulent que ça soit absolument parfait avant de sortir. Sauf qu’un logiciel absolument parfait, dans les faits, ça n’a à peu près aucune chance d’exister dès que tu dépasses une certaine taille. Et du coup si t’attends que ça soit parfait, ben au final tu sors jamais rien, et donc y a jamais d’argent qui rentre…

Après, c’est sûr que des fois les financiers tombent dans l’excès inverse et considèrent que dès que ça marchotte, même si c’est avec une béquille et une jambe de bois, ça peut sortir…

Mais le juste milieu est parfois difficile à trouver, et au final c’est quand même quasiment toujours ceux qui tiennent les cordons de la bourse qui ont le dernier mot… Quitte parfois à ce que les dév se protègent en faisant signer au préalable un document avec la liste des soucis connus et rappelant qu’ils ont levé l’alerte…

3 « J'aime »

revoir la gestion de la mémoire mis en place pour s’accommoder des contraintes du matos PC (ce qui prends beaucoup de temps et d’argent)

Cela me rappel Windows 7 avec l’indice de performance.
Windows 8 l’a eu, sous Windows 8.1 il s’est fait éjecté du ring.

Que dire de la console de Nintendo ? (it a miracle !)

NVIDIA…
ils, ne s’offrent rien du tout, sauf de se payer la têtes de leurs clients… Évidemment !
Depuis la sortie de leurs premières RTX, NVIDIA a pris un changement de directions plus que critiquable à bien des égards.
C’est un secret de polichinelles quils ambitionnent de fournir des cartes aux studios de cinéma pour leurs effets spéciaux qui leurs permettraient des économies énormes (sur le personnel et les risques de fuites, comme de tailles des infrastructures et un gain de temps (qui seraient tout autant voir plus plus d’économies supplémentaires)à la constructions de leurs films bourrés d’effets spéciaux et d’animations.
Sauf que de pouvoir faire passer une industrie qui traite images par images en y passant des heures à du temps réel… Nécessité de leurs proposer une puissance de traitement énormes.
Et nous… Nous ne sommes là plus pour payer leurs R&D a chaque avancée progrès dans le domaine… Et donc nous elles générations de cartes…
Ava t les évolutions suivaient nos besoins de joueurs maintenant elles suivent celles de l’IA, de l’armée et du cinéma…
Normal que les prix soit en conséquences.

Le marché du jeu vidéo est lucratif certes, mais que dire de celui de l’IA mais également du cinéma ajouté à celui ci, et très probablement de l’armée de manière très étendues … Dans un futur proche a plus ou moins court terme pour encore une fois NVIDIA

Oui dans 10-15 ans quand Mr tt le monde pourra enfin jouer en Path Tracing nous aurons droit à ce GAP graphiques tsnt attendu depuis des générations de consoles et cartes graphiques mais qui ne veut plus vraiment se montrer comme à certaines époques du passé pas si lointain.