Les choses se précisent très sérieusement pour les cartes graphiques de génération Battlemage : il ne reste plus grand-chose à annoncer pour Intel.
Je pose une question sans doute idiote mais pourquoi ne pas mettre directement 1To de Vram, ça coûte si cher que ça à fabrique la Vram ?
ta question est tout sauf idiote (une question idiote est une question dont la réponse est généralement évidente, ce qui n’est pas du tout le cas ici) … Moi je considère qu’aucune question n’est idiote, le fait de poser des questions montre que la personne n’est pas idiote et cherche à savoir … les idiots sont ceux qui ne posent pas de questions
Je vais essayer de t’expliquer de manière simple.
La VRAM communique avec le GPU à une vitesse 10 fois voire 20 fois supérieure à ce que la DDR5 permet. il faut un bus mémoire très puissant et ça coûte très très cher pour un fabricant.
pourquoi les cartes haut de gamme n’ont pas un bus de 512-bit ?? alors qu’il y a 15 ans on avait des cartes graphiques avec un bus de 512-bit (qui coûtait pourtant 200$) … parce que ça coûte cher aujourd’hui et pas toujours faisable pour les GPUs mainstream.
Il faut aussi savoir que la VRAM n’est pas comme la RAM, la VRAM consiste en plusieurs puces GDDR6/GDDR6X/GDDR7 … une puce GDDR6X n’existe qu’en 1 Go/2 Go. c’est pas Nvidia ou AMD ni intel qui décide. c’est le fabricant de puces (Micron/Samsung …) et aussi bien sûr le standard GDDR. c’est comme la RAM chaque génération permet d’avoir une quantité maximale par DIMM.
Aujourd’hui avec la GDDR7 on peut avoir 3 Go c’est pour ça que la RTX 5090 peut avoir 36 Go de VRAM ou plus.
la RTX 4090 a 12 puces GDDR6X de 2 Go branchées connectées en 32-bit (bus de 384-bit). toutes ces puces travaillent ensemble pour transférer les données à une vitesse phénoménale de 1 To/s (20 fois la vitesse d’une DDR5 Dual-Channel basique.
Si on veut augmenter la VRAM on doit augmenter le bus mémoire et ajouter des puces GDDR6X … il faut un bus de 512-bit pour avoir 32 Go sur une RTX 4090. C’est pas rentable ni pour Nvidia ni pour le consommateur de faire ça parce que le gain en performances est minime par rapport à l’investissement et la carte graphique va coûter 200€ jusqu’à 500€ de plus (Nvidia fait payer cher tout augmentation de VRAM).
Donc d’après ces explications tu comprendras que 1 To de VRAM est impossible technologiquement parlant (on est limités par les puces GDDR6/GDDR7) et aussi par le bus mémoire.
Il y a 12 puces GDDR6X dans la RTX 4090 … il faudra 512 Puces GDDR6X (bus mémoire de 16384-bit) pour avoir 1 To de VRAM
Déjà où est ce qu’on va mettre 512 puces dans le PCB de la carte graphique ??? y a pas de place il faudrait mettre plusieurs PCB en Sandwich, il faudra faire fonctionner la planche à billets
Bref une RTX 4090 avec 1 To de VRAM (déjà ça sert à rien c’est une carte graphique pour gamers) et … ça va coûter plusieurs millions $
+1. Une précision quand même : multiplier les puces ne nécessite pas forcément de multiplier la largeur du bus.
On peut en effet partager une série de lignes du bus entre plusieurs puces.
C’est ce qui est fait couramment sur la RAM du CPU : quand il y a 4 barrettes, chaque pair de barrettes se partage les mêmes 64 bits, et sur une barrette il y a généralement 4, 8 ou 16 puces 32 ou 64 bits sur un seul bus 64 bits.
En effet, ce n’est pas du tout obligé, on peut faire comme la RAM et partager les lignes du bus. J’ai pris en compte la manière de procéder actuelle qui est chaque puce est connectée en 32-bit.
une paire de barrettes se partagent 128-bit pas 64-bit (qui est propre à chaque barrette).
Ce qui se fait actuellement c’est que Chaque puce GDDR6 fait augmenter le bus mémoire de 32-bit. donc chaque puce ici c’est comme notre barrette de RAM sauf que le Canal n’est pas limité à Deux on est à 12 Canaux mémoire sur la RTX 4090.
Non, un canal fait 64 bits (et même 2x32 bits en fait en DDR5, ou chaque canal 64 bits est en fait constitué de deux sous-canaux 32 bits indépendants), les 128 bits c’est avec deux canaux.
Et quand on a 4 barrettes avec 2 canaux, on a bien une paire de barrettes sur chaque canal, qui se partageant donc 64 bits (partage temporel, quand une barrette est activée celle qui est sur le même canal ne l’est pas).
J’ai mal compris ton commentaire, moi Je faisais allusion à une paire de barrettes dans deux canaux différents qui est le scénario dans tous les PCs aujourd’hui sauf si on a Deux paires de barrettes.
Pour la DDR5, pour moi ce qu’on considère comme du dual channel c’est en réalité du quad-channel (d’ailleurs plusieurs logiciels mentionnent « Quad Channel ») parce que les deux canaux dans une barrette fonctionne indépendamment et le système les utilise comme du dual-channel.
On continue d’appeler cela dual-channel parce que le quad-channel dans ce cas n’apporte aucun gain en bande passante par rapport au dual-channel classique et ça permet d’associer dual channel à deux barrettes c’est moins confus pour les consommateurs.
Je parie que si j’interviens dans la discussion juste pour dire « c’est bien », je serais considéré comme le cheveu dans la soupe.
C’est pas tout à fait juste je trouve : Les fabricants construisent ce que le standard permet, et que leur demandent leurs clients (AMD, Nvidia, etc…), ce ne sont pas eux qui décident unilatéralement de la capacité des mémoires.
D’autant que le standard des mémoires GDDR est défini par le JEDEC, dont font partie AMD, Nvidia, Intel, Qualcomm, Apple, Google, et à peu près tous les autres grosses boites du secteur.
Ils produisent surtout en fonction de ce qu’ils sont capables de produire…
S’ils ne font pas de puces de GDDR de plus de 2 Go, c’est tout simplement parce qu’ils ne savent pas faire. Parce que si c’était possible, ça intéresserait bel et bien nVidia ou AMD d’en avoir, pour les cartes très haut de gamme (ça permettrait par exemple à nVidia de mettre 12 puces de 4 Go au lieu de 24 de 2 Go sur ses Quadro RTX 8000 48 Go).
La RAM est une mémoire d’assez faible densité (c’est pour ça qu’elle est aussi chère), donc on ne peut pas en mettre des quantités énormes sur une petite puce de 1-2 cm²…
on revient toujours au même point … C’est micron qui décide de ce que Nvidia va mettre sur les cartes graphiques parce que Nvidia ne fabrique pas de puces GDDR aux dernières nouvelles.
C’est comme la finesse de gravure … C’est pas TSMC qui décide ? bien sûr que si. Nvidia, AMD et Intel s’adaptent tous à l’évolution de TSMC.
Bien sûr Nvidia veut bien mettre le double de VRAM sans augmenter le nombre de puces ni le bus mémoire. Mais elle va quand même nous le faire payer très cher !
AMD nous vend bien un 9800X3D qui est un 9700X avec 64 Mo de cache en plus à 600€ … 64 Mo de cache à 200€ :o … mais pas de problème c’est le CPU le rapide en gaming
Tant qu’il y a des acheteurs, les fabricants augmenteront les prix !
Non, Micron fabrique ce qu’il est techniquement faisable de fabriquer, et qui est spécifié par les normes GDDR, émises par le JEDEC.
Et vu que Nvidia fait partie du JEDEC, ils ont bien leur mot à dire quant à l’évolution de la GDDR.
Si Nvidia souhaite que les prochaines normes permettent d’avoir plus de capacité mémoire (au détriment d’autres caractéristiques), ils peuvent tout à fait le pousser (si accepté par les autres membres, forcément).
Bref, ils sont contraint d’utiliser ce qui existe pour faire leur cartes, mais c’est faux de dire que « micron qui décide de ce que Nvidia va mettre sur les cartes graphiques », vu que Nvidia participe à définir ce que Micron pourra produire.