Est-ce que 8 Go de mémoire vidéo pour une carte graphique en 2023 sont vraiment de nature à poser problème ?
The last of us en DQHD je suis à plus de 14Go de VRam consommée sur 16… En version 1.0.1.0 (day one).
Faut pas deconner quand même … ces 4060 et ti fonctionnent sans problème en 1440p pour la plupart des jeux actuels !! A part bien sûr quelques gros jeux ou pour ceux qui veulent obligatoirement bcp de fps. Mais pour la plupart des gamers normaux aucun soucis !
9.5 go en 1440p ultra DLSS qualité sur une 4070 (version 1.4)
ça a changé depuis les dernières mises a jours, la consommation de vram a baissé et plus stable.
oui mais là on parle de CG pour du 1080p… merci pour l’info mais elle n’aide pas trop de ce cas ![]()
Sauf que le problème se sont les textures qui augmentent en résolution. Donc, si vous jouer en 1080p mais l’éditeur a mis des textures 4k partout, c’est pas long que 8Go c’est atteint
Oui enfin à un moment donné, je pense que le commun des mortels s’attend à un peu mieux que du 1080p fluide quand il est question de mettre 400 balles dans une carte dite « d’entrée de gamme », mais qui ne l’est absolument pas pour 80% du public.
8Go de VRAM c’est clairement du cynisme pur si le prix est supérieur à 250€, et on sait tous qu’il le sera.
The Last of Us un des pires exemples possibles en matière de gestion de la VRAM.
Je suis d’accord, après à 500€ la TI sans doute, ca fait cher la carte limitée au 1080p high.
C’est pas hogward le pire ?
Suffit de ne pas acheter et attendre.
Ce qui est le plus gênant avec ces histoires de quantité de RAM, c’est que d’une part ce n’est sans doute pas ce qui coûte le plus cher à ajouter, mais qu’en plus ça provoque des situation assez ubuesque ou un GPU comme la RTX 3070 se retrouve à la ramasse (certes sur des titres peu optimisés) alors que cette puce a le potentiel d’afficher tout correctement avec un framerate décent et stable. Techniquement, c’est juste un bridage monstrueux, et qu’on ne peut pas bypass. La chaine youtube Hardware Unboxed a fait une vidéo très récemment illustrant ce concept avec l’équivalent de la 3070 mais version pro (pourtant plus lente au niveau des fréquences RAM/GPU), elle s’épargne tous les soucis de stuttering dont souffre sa quasi jumelle RTX 3070 juste parce qu’elle embarque juste plus de RAM.
Et la tendance actuelle c’est effectivement que la différence de quantité de RAM utilisée entre la 4K et le 1080p a tendance à se réduire, et dans le sens où la quantité minimum requise est de plus en plus élevée comme le souligne @virus2.2
Certes, on parle ici de la série xx60, mais je ne serais pas étonné qu’elle se retrouve de temps en temps, et de plus en plus souvent, dans cette même situation : un GPU assez performant pour un certain niveau de détail, payé un certain prix, mais qui se retrouve bridé parce que les jeux beaux se vendent bien, et que pour faire de beaux jeux il faut de la RAM.
De plus en plus de RAM.
Pas de commentaire sur le bus 128 bits je suis le seul à trouver ca chiche de la part Nvidia ?
Oui, la mémoire graphique n’est pas très cher (16 Gb = 2 Go). Il y aura 4 puces sur la RTX 4060 (Ti).
Non c’est normal, la largeur du bus est découpé entre les puces mémoire, et dépend de la quantité installé. Sur les GPUs actuels, 128 bits → 8gb ; 160 bits → 10gb ; 192gb → 12gb ; 256 bits → 16gb.
Rien n’empêche Nvidia d’utiliser des puces de 4 Go. Dans ce cas, la RTX 4060 Ti pourrait avoir 16 Go. Et laisser la RTX 4060 à 8 Go par exemple (bien moins cher du coup).
C’est normal que ta vram soit utilisée, c’est fait pour.
bah, c’était le prix des 3060ti pendant longtemps ~600euro, de quoi vous plaignez vous ?
