Commentaires : Et si la 3D X-DRAM révolutionnait vraiment la mémoire vive?

L’arrivée de la DDR5 a bien bousculé le marché, mais NEO Semiconductor veut aller beaucoup plus loin.

La firme se veut confiante et évoque des circuits intégrés de 1 Tbit d’ici à 2030

ok mais quid d’un futur plus proche? rien de prévu à commercialiser? quelles capacités? quels tarifs?

1 « J'aime »

90% de chance qu’il ne se produise rien.
Une firme cré en 2012 qui ne produit rien de concret à part un brevet et beaucoup de vent tout en affirmant sortir des mémoires de 1 Gb en 2030 soit 18 ans après sa création.
Foncer petits investisseurs j’ai une piscine à creuser chez moi et une cinquième lamborghini à mettre au garage et je n’ai plus que sept ans avant que vous vous rendiez compte de l’arnaque.
D’ici là j’aurais tout revendu planqué le magot en cryptomonnaie déclaré la faillite et foutu tout le monde dehors.

4 « J'aime »

Pour de la RAM, ça n’a jamais vraiment été une question de quantité, au pire on ajoute des slot. C’est surtout une question de vitesse. La question n’est pas de savoir si on peut faire de la RAM de 1TO, mais qu’elle soit encore plus rapide

Je suis partagé sur cette réflexion.
Regarde les serveurs, ils faut beaucoup de RAM mais pas très rapide. En plus c’est des modèles ECC à correction d’erreur donc avec une latence supplémentaire.
Au contraire, en Gaming, on n’a pas besoin de quantité démesuré pour le processeur mais plus c’est rapide, mieux c’est.
Il y a bien quelques application métier (CAO, 3D, MASTERING, VIDEO) qui ont besoin de beaucoup de RAM et beaucoup de vitesse.

L’architecture même de nos PC est t’elle la bonne ?
As t’on besoin encore aujourd’hui d’une mémoire comme la RAM qui soit non unifié ?
Ne pourrait t’on pas envisager l’utilisation d’une mémoire venant de la carte graphique ou utilisé conjointement par la carte graphique (comme la PS5 par exemple).
Se servir des unité de stockage SSD PCI-e comme mémoire RAM en augmentant encore la vitesse ?
Tant de questions ???

On pourrait. Mais la RAM graphique est BEAUCOUP plus cher que la RAM classique. Et pour l’écrasante majorité des usages, en utiliser n’apporterait rien. Donc dépense inutile.

Quasi impossible, sauf à révolutionner complètement le fonctionnement du coupe CPU/mémoire. Dans la RAM, ce qui est absolument fondamental, c’est le « Random Access », ce qui signifie que le CPU peut à tout moment accéder à n’importe quel mot mémoire, aussi bien en lecture qu’en écriture.

Les SSD, ils ont des unités d’adressage beaucoup plus grosses. 512 ou 4 Ko via leur interface externe (ce qui est déjà énorme par rapport à un mot de 8 octet…), mais physiquement les pages (unité minimale en lecture et programmation) font généralement au moins 16 Ko et les blocs (unité minimale en effacement) font généralement plusieurs Mo à plusieurs dizaines de Mo (par exemple, environ 45 Mo sur un Crucial P3).

Et indépendamment de ces questions d’adressage, c’est de toute façon beaucoup trop lent, et pas que d’un petit facteur : la latence en lecture est de l’ordre de 1000 fois celle de la RAM, la latence en programmation monte à 10 000 fois celle de la RAM, et la latence en effacement est de l’ordre de 100 000 fois plus élevée.

1 « J'aime »

Je ne suis pas sûr de comprendre le dernier paragraphe.
Si c’est si révolutionnaire que ça par rapport à de la DDR5 actuelle, même si cette dernière va faire x2 puis re-x2 en puissance d’ici 2 ans, pourquoi ce doute ?

Le premier gros constructeur de RAM qui utilise cette techno’ enterre les autres, non ?
Evidemment, aux débuts, personne ou si peu en aura l’usage qui légitime ce qui sera initialement une débauche de puissance.
Mais je donne pas 1 à 2 ans pour qu’on y trouve des applications qui vont utiliser cette puissance (aucun intérêt pour l’IA de retrouver en mémoire encore plus rapidement des tokens et formuler ainsi des réponses encore plus rapidement, par exemple ?).

Pour l’IA, il y a déjà mieux, on commence à intégrer des unités de calcul directement dans la mémoire. Voir par exemple ce que fait Upmem : Technology – UPMEM

Cela dit, les deux ne sont pas incompatibles, la 3D-X-DRAM visant avant tout à augmenter la quantité de mémoire.

1 « J'aime »

Merci pour le lien ! (et la réponse !).
Ok, donc le créneau est déjà partiellement pris sur ce sujet. ^^

Tout comme le read sequential data ou write sequential data. C’est exactement la même chose que la RAM. Allez chercher les datas là où elles sont.

Pour les vitesses je te fais confiance, j’ai la flemme de chercher :joy:

Non, vraiment, la RAM et la flash ce n’est pas du tout la même chose.

L’adressage mémoire se fait à l’octet près, avec une taille d’accès minimale égale à la largeur du bus mémoire (64 bits en x86). Et dans le flux d’instruction du CPU, tu as quasi directement des adresses mémoire (ce sont des adresse virtuelles, mais il y a un mapping direct entre les adresses virtuelles et les adresses physiques pour un processus donné).

Sur une mémoire flash, l’adressage se fait par pages de au moins 16 Ko. Tu ne PEUX PAS référencer directement un octet précis d’une mémoire flash, elle ne sait pas faire. Et c’est justement pour ça qu’elle est beaucoup moins chère, pouvoir accéder à chaque octet individuellement, c’est très pratique, mais c’est très coûteux en circuit…

Or dans le flux d’instructions flux d’instructions que le CPU exécute, tu as besoin de pouvoir référencer tes données précisément, à l’octet près. C’est fondamental.

Alors éventuellement, on pourrait imaginer un mécanisme qui utilise les poids forts de l’adresse comme référence de la page et les poids faibles pour référencer l’octet au sein de la page. Sauf que ça aurait un coût énorme en performances, puisque à chaque fois que le CPU devra aller va chercher une donnée en mémoire, même si ce n’est qu’un petit octet, il faudra physiquement lire une page complète de plusieurs Ko. C’est profondément inefficace : tu ramènes 99.9% de données qui ne sont pas celles que tu veux. Et pire, à chaque fois qu’il écrit ne serait ce qu’un octet en mémoire, il faut recopier toute la page qui le contient (donc lire 16 Ko puis programmer 16 Ko)… Si par malheur ça implique en plus de devoir effacer des dizaines de Mo au préalable, ça devient la catastrophe…

Bref, pour la RAM, c’est absolument fondamental de pouvoir accéder unitairement à n’importe quelle adresse. C’est ça qui fait son intérêt et ses performances. C’est ça qui fait son coût. Et c’est tellement fondamental que c’est même ça qui a fait son nom (Random Access Memory).

Quand aux accès « séquentiels » à des gros blocs de RAM, non seulement ils restent rares, mais en plus en pratique ça reste physiquement du « random » : quand tu lis 1 Mo en RAM, contrairement à un périphériques de stockage où tu peux émettre une instruction de type « donne mois les 256 blocs à partir du bloc numéro x », en RAM tu vas quasiment toujours envoyer adresse par adresse : tu ne peux pas demander plus de 8 octets d’un coup (8 octets correspondant à la taille d’un mot sur le bus mémoire des x86 depuis le Pentium, raison pour laquelle avec la vieille EDO 32 bits il fallait obligatoirement mettre les barrettes par paire pour peupler 64 bits). Donc si tu demandes une séquence de 1 Mo à partir de l’adresse x, tu vas en fait bien faire de l’accès « aléatoire » adresse par adresse en demandant les 8 octets à partir de l’adresse x puis les 8 octets à partir de l’adresse x+8 puis les 8 octets à partir de l’adresse x+16, etc…

Joli cours. Qui sont tes élèves petit Padawan ? :yum:

Je me doute bien que c’est différent de la RAM et un SSD :thinking: :roll_eyes: :crazy_face: .

Si je t’écoutes : tu m’explique que c’est comme çà et que rien ne doit changer. Les petits enfants de nos enfants connaitront Windows 21 avec un Processeur X86 4096 Coeurs à 10Ghz, de la mémoire DDR8 et du stockage SSD Pci-e Nvme à 120 000 Mo/s.
C’est d’une tristesse… :scream: :woozy_face:

Bref, de l’évolution de l’actuel sans plus !
Ne faut-il pas repenser le processeur comme ARM l’a fait ?
Ne faut’il pas envisager le calcul quantique comme solution viable pour l’avenir ?
Ne peut-on pas rêver à changer radicalement l’infrastructure même de tout çà ?

l’Homme avec un grand H doit être un rêveur, un visionnaire… (et un homme d’affaire accompli :sweat_smile:)
A force de dire c’est comme çà et puis c’est tout, on n’évolue pas.
On serait toujours au chauffage à charbon à la maison en s’éclairant à la bougie

Non. Je t’explique POURQUOI c’est comme ça (compromis coût/performances, en poussant le curseur vers la performance pour la RAM et vers le coût pour le stockage de masse) et donc pourquoi il y a peu de chances que ça change. Parce que trouver une technologie de mémoire qui permette à la fois un adressage aléatoire ET de très grandes densités, ça relève surtout de l’utopie…

Maintenant, si tu penses avoir la solution, n’hésites pas hein. Mais ça fait des décennies que les chercheurs les plus pointus dans le domaine font face à ce compromis sans jamais avoir réussi à le contourner…

ARM n’a pas fondamentalement repensé le processeur. Conceptuellement, un processeur ARM fonctionne comme n’importe quel processeur. Il parle simplement une langue différente. C’est comme un anglais et un français. Ils parlent une langue différente, mais aucun des deux n’a « repensé » le langage…

Un CPU ARM est tellement proche de n’importe quel autre CPU moderne, qu’aujourd’hui il suffirait quasiment de flasher le micro-code d’un CPU x86 pour en faire un ARM (un peu comme ce que faisait déjà Transmetta avec son Crusoe il y a plus de 20 ans), et inversement.

Non, ça n’a aucun sens. Le quantique est particulièrement efficace pour traiter certains problèmes particuliers. Mais aussi terriblement inefficaces pour en traiter certains autres que nos machines actuelles traitent très bien.

Accessoirement, là on parle de la différence entre la façon d’accéder et de stocker aux stockage de masse d’un côté et aux données de travail de l’autre. Changer le mode de traitement des données ne changera pas leur nature fondamentale, un processeur quantique aura toujours d’un côté des données de travail, de l’autre du stockage de masse…

Ceux qui font réellement avancer les choses ne sont pas les rêveurs visionnaires qui partent dans des hypothèses sur des sujets techniques qui les dépassent totalement et sur lesquelles la recherche se casse les dents depuis des décennies. Ceux qui font réellement avancer les choses dans la technologie, ce sont les pragmatiques qui cherchent des petits gains réguliers plutôt que des révolutions (même si après y a des marketeux qui font leur part du boulot et essayent de faire passer ça pour des révolutions).

Et bah avec cette attitude, on est pas prêt de changer les choses.
Heureusement que certains ont pensé les SSD puis le format NVME pour remplacer le disque dur sinon on en serait toujours au même point avec nos plateaux.

Idem pour le vynil, pour les cassettes à bande.

On n’aurait jamais rien inventé si on se cantonne à ce qui existe.
L’inventeur des réseaux sans fils a bien créé une rupture en developpant le Wifi ou le Bluetooth, le zigbee, z wave et autres.

Heureusement qu’on a ça.

Tesla qui casse les codes de fabrication des voitures, ou spaceX qui fait pareil avec les conceptions des fusées.

Alors tu peux voir ça comme de petites évolutions.

J’ai connus les PC sous Unix où ça travaillait en registre. Les stations de travail graphique silicon graphics. Assez différent des PC type IBM. Les PowerPC bien différents aussi
Oui OK il y a proco, Ram, gnagnagna….

Mais il y a rupture. On casse les codes.

Le quantique n’en ai qu’à ses balbutiements.
On ne sera certainement plus là pour le voir mais comme tout, il y aura amélioration, miniaturisation, fiabilisation.

Un jour, nos descendants auront peut-être une puce mémoire dans le cerveau, le téléphone intégré sous la peau, la réalité augmentée dans l’oeil. Je sais pas, j’extrapole.

Demande à des gens de 1900 ou avant s’il imaginait la fibre, le téléphone portable, les voyages spaciaux ou même plus simple la lumière et le chauffage réversible !!!

On met des barettes de RAM parceque c’est pas cher. Bien moins cher qu’utiliser la mémoire L1 ou L2 ou L3 qui sont toutes très très chères à intégrer dans un processeur.

Article de 2013 mais donnant la vitesse.
Tu mesures l’écart d’un L1 de quelques kilo-octet à plus de 700 go par secondes a de la RAM d’1 Go à « seulement » 10 go/s

Pourquoi sauf le prix ne pas créer une mémoire de 700Go/s pour supprimer le goulot d’étranglement en sortie de processeur!

Ben oui, clairement, dans tout ça, il n’y a aucune révolution, à part peut être SpaceX et ses lanceurs réutilisables. Mais aucun des trucs que tu cites n’a été une rupture majeure par rapport à l’existant, y a pas eu de « cassage de code » d’un point de vue technologique (éventuellement y en a eu après passage du service marketing pour empaqueter tout ça…).

Ah ben c’est sûr que si tu enlèves LA contrainte qui limite tout sur le marché depuis des décennies, c’est pas la même affaire hein, tu peux mettre 100 Go de cache L2, 20 To de RAM, avec 20 canaux pour avoir des débits de brute, les batteries qui vont bien pour persister tout ça en cas de coupure d’alimentation, etc… Mais c’est pas ça la vraie vie, dans la vraie vie, le coût n’est rarement un facteur qu’on peut se permettre de négliger… C’est ça le pragmatisme dont je parlais plus haut…

On n’a pas la même définition d’évolution alors.
Rien que la TV couleur, ça a changé ma vie.
Sans parler des écrans plats.

Rupture technologique qui certes fait peu ou proux la même chose