Lunar Lake n’aura-t-elle été qu’un épiphénomène ? Une architecture tentée par Intel, mais finalement vite abandonnée pour revenir aux fondamentaux ?
En même temps ça ne concernait que les laptops…
Apple a fait ce choix d’intégrer la RAM pour soutenir sa politique commerciale des plus détestable…
Moi, je plaide pour une désolidarisation de la VRAM aux PCB de gpu pour pouvoir augmenter sa VRAM comme on le souhaite, mais ce n’est pas demain la veille et ça ne se fera surement pas du côté de Nvidia…
Et comment on ferait pour avoir de la VRAM aussi rapide que maintenant (1To/s voir plus) sans l’intégrer au plus près des GPU ?
bravo tu as trouvé le premier argument de apple pour la mémoire soudée
Je me suis peut être mal exprimé, l’idée serait d’avoir des slots de VRAM sur le PCB de la carte graphique
Après pour les histoires de rapidité et de latence bah, c’est leur boulot de trouver des solutions
Je n’ai rien contre des laptops avec la ram soudée, mais alors on fait commencer ça à 64gb et on permet de monter sur certains modèles.
Les lunar lake aurait pu être un moment plus disruptif si le marché, TSMC compris, avait intégré qu’il fallait un plus grand bon dans la Ram.
Openshift, Vagrant, Proxmox. Certains petits luxes/conforts de développement sont de gourmandes petites choses. Et pas toujours reproductible en déplacements, ce qui est donc, toujours aujourd’hui, assez dommage.
La limitation à 32 gb est en tout cas injustifiable pour les mini PCs de type Nuc/Minisforum, terrain de prédilection de bon nombre de Homelab enthusiasts. Personne dans ce domaine n’accueillera à bras ouverts une génération de processeurs qui briderait la ram embarquée.
Intel a régulièrement lancé des technos one-shot ou presque: la cache partagée avec le GPU intégré sur les Iris Pro, les CPU avec HBM, Optane, et maintenant la RAM sur CPU. C’est décevant, c’étaient de bonnes technos qui avaient des résultats intéressants.
La RAM sur CPU est censée permettre un bus plus large et une meilleure latence (ce que fait Apple ou ce que font les GPU) tout en économisant énormément sur la carte mère (pas besoin de mettre 128 lignes de transfert + 48 lignes d’adresse).
On pouvait y penser pour de la RAM rapide et de la RAM lente à l’extérieur du CPU au pire.
Apple n’a pas de dGPU
Malheureusement pour l’instant, pas de solution, la VRAM soudée est de très loin la plus rapide et réactive surtout.
+1, d’autant que les Intel fait déjà des CPU capables de gérer une RAM découpée en plusieurs espaces ayant des niveaux de performances différentes (NUMA), vu que c’est ce qui se produit sur les Xeon en multi-socket (et je serai pas surpris que le circuit de gestion mémoire soit identique sur les puces grand public, avec simplement une désactivation des fonctions réservées aux Xeon, comme l’ECC).
Ou au pire gérer ça comme un gros cache L4, ce que Intel sait faire également (comme tu le dis, ça avait existé sur des puces grand public il y a quelques années avec les Iris), avec toutefois dans ce cas l’inconvénient qu’il faut plus de RAM (les caches peuvent être exclusifs entre eux, mais pas par rapport à la RAM, donc les données dans le cache L4 doivent aussi être en RAM) et, il me semble, que ça ne profite pas aux périphériques qui font du DMA.
On fait du CPU asymétrique, on peut faire de la RAM asymétrique (déjà fait à l’époque des 16 bits). Le CPU peut très bien gérer un espace d’adressage virtuel qui pointe vers la RAM proche ou la RAM lointaine. Le problème est surtout qu’il faut transférer par pages… C’est long.
L’autre solution, c’est que ce soit l’OS qui effectue le Swap. Mine de rien, ça a déjà été fait avec certaines solutions sous DOS et l’EMS (dans une certaine mesure) … ou avec Optane!
C’est ce problème de segmentation marketing que j’ai rencontré il y a 5 ans pour avoir des stations de travail performantes pour du rendering de dessin animé 4K avec Adobe After Effects.
Comme ce logiciel n’utilisait qu’un seul coeur (!!!) et pas le GPU à cette époque, il fallait des processeurs i9-9900K capables de monter à 5 Ghz pour avoir les meilleures performances. L’ennui c’est que la RAM des cartes-mères était limitée à 64 GB (et 128 par la suite sur certaines cartes-mères mises à jour ) sur les stations de travail (DELL R3930 rackstation) ou les PC d’assembleur à refroidissement liquide, alors que les serveurs DELL pouvaient dépasser les 1,5 TB de ram mais les multiples coeurs et les bi-processeurs ne servaient à rien et ne dépassaient pas les 2,4 Ghz ou les 3 Ghz pour les plus chers.
Bien entendu les commerciaux DELL prétendaient avoir des solutions mais, même avec une machine à 20 000 euros au lieu de 2500, ca ne répondait pas du tout au besoin précis.
Le problème des slots, c’est que ça limite la bande passante (largeur de bus et fréquence). C’est déjà un gros problème avec la RAM, c’est insoluble pour la VRAM! Imagine la taille du slot de presque 600 pins pour avoir la même bande passante qu’une VRAM 256bits…
Ce que tu ne comprends pas c’est qu’il n’y a pas de carte graphique séparée (ça ne sert plus à rien), tout est intégré au processeur.
Et la RAM est partagée entre entre les parties CPU, GPU et NPU pour être plus performante.
Et on pourra jamais faire mieux qu’être au plus près du processeur qui gère tout et sans connectique.
Et ça a toujours été l’unique raison pour laquelle Apple l’a fait.
Si c’était juste une histoire d’argent, Apple aurait déjà pu s’amuser à la souder sur les Mac Intel depuis bien longtemps…
Faisable mais je crois que ça ne serait ni très compact ni très économique comme solution…
Ca n’est pas faisable sur ce type d’interface. Deja la taille du bus qui tres largement superieure a celle des CPUs desktop, et les prerequis en matiere de rapport signal bruit, il faudrait des cartes 2 fois plus grosses et avec 2 fois plus de couches, et diminuer la frequence de fonctionnement.
Tu ne t’es jamais pose la question de pourquoi la taille des bus VRAM n’a jamais evolue depuis pres de 20 ans ? Elle a meme diminue, on voyait plus souvent des bus 512b sur l’ultra haut de gamme avant. Router des IOs, ca n’evolue pas, ce sont toujours les memes cartes FR4.