Voilà qui pourrait bien être une véritable bombe : NVIDIA se prépare à lancer des processeurs ARM pour nos PC. Que ce soit AMD avec ses Ryzen, Intel avec ses Core Ultra et même Qualcomm avec ses récents Snapdragon X, tous peuvent trembler à l’annonce de l’arrivée de NVIDIA sur le segment du CPU PC.
S’ils assurent autant que sur leur Nvidia Shield (j’en possède 3 depuis des années), c’est prometteur, fluide et toujours au top !
J’imagine bien Nvidia nous sortir un CPU qui exploite mieux la puissance de ces cartes graphiques RTX, à un tarif compétitif face aux CPU Intel et AMD du moins au début, puis en fonction de l’évolution de la concurrence, augmenter ses tarifs …
Nvidia a conclu de nombreux partenariats ces dernières années qui semble plutôt avoir servi de marche pied pour mieux préparer son avenir et son ambition sans limites.
Beaucoup de ces « partenaires » risque de se retrouver en concurrence directe avec Nvidia ce qui doit faire grincer beaucoup de dents…
Du côté de chez AMD son partenariat avec OpenAI devrait permettre d’améliorer toute la partie software, du moins je l’espère…
C’est clair. S’ils maitrisent la partie CPU et GPU ce sera super efficace !
Qualcomm peut être mais Pas de quoi faire trembler AMD et intel … le x86 a de longues années devant lui !!!
AMD devrait en faire de même et sortir une gamme ARM, avec processeur graphique . Ils ont le savoir et les moyens .
Pas besoin de rester aux côtés d Intel, le marché est clairement entrain de basculer vers ARM .
ENFIN. J’attend çà depuis un moment déjà. Le meilleur des 2 mondes.
Une puissance et efficience ARM au service d’un PC Fixe.
Un CPU pensé pour la performance mais également optimisé pour le gaming
Avec l’ajout d’une RTX pour un Combo de folie.
Vraiment hate de voir les test.
Enfin une révolution à la hauteur de mes espoirs.
Je n’ai rien contre le X86 mais je trouve qu’il y a trop peu d’évolution. On reste trop sage et classique.
Apple a clairement indiqué une nouvelle voie à suivre avec de très très bons processeurs, largement au niveau des perfs des X86 et beaucoup plus efficient.
Sur les PC Portable, on est encore trop souvent à quelques heures d’autonomie quand un MacBook tient plus de 10h sans broncher
Clairement, je ne pense pas. Progressivement, surtout pour le grand public, très probablement. Je pense qu’au fil des années, les usages du x86 vont se cantonner de plus en plus aux niches professionnelles qui ont des besoins importants en puissance. Le grand public a déjà démontré qu’il n’avait clairement pas besoin d’une grande puissance de calcul (usage prédominant des smartphones, tablettes, ordinateurs portables).
J’ai un MacBook M3 Pro et franchement, c’est super, mais ça n’est vraiment pas comparable en terme de puissance de calcul avec ma station Threadripper 7970X (donc x86). Ni d’ailleurs en terme de possibilités d’extensions : je peux connecter 7 cartes PCIe 5.0 x16, et j’ai 3 cartes pour porter à 14 ports PCIe (NVMe) la capacité de la machine, tous utilisés. Cela est possible grâce au grand nombre de lignes PCIe de cette architecture.
Même ma machine à base de 7950X/4090 éclate littéralement un M3 Max (heureusement d’ailleurs). La réalité, c’est que bien peu de gens ont besoin d’une telle puissance (surtout utile aux créateurs, 3D, VFX, post production cinéma, scientifiques), mais pour nous qui en avons l’utilité, les puces ARM ont encore beaucoup, beaucoup de chemin à parcourir avant d’égaler le x86.
Les puces ARM ont un avantage indéniable : une consommation plus faible donc une autonomie plus grande sur les machines portables et une chauffe bien moindre. Mais les portables ne sont pas une option quand on a besoin d’une machine la plus puissante possible (et les écrans sont bien trop petits et insuffisamment qualitatifs pour certains usages). Gagner 5s de temps de rendu par frame, sur une scène de 200 frames, c’est énorme dans un workflow professionnel.
On s’en fout, en 2026 soit on aura autre chose à penser soit nVidia sera nationalisée par la Chine qui aura reconquis Taïwan.
Nvidia est une entreprise américaine, pas taïwanaise (son CEO et fondateur est d’origine taïwanaise, mais émigré aux USA bien avant la fondation).
Bonne nouvelle ! On n’en veut plus du x86…! Surtout quand on voit qu’Apple est à des années lumières avec les MacBook pro: puissance à revendre, 0 chauffe et autonomie de dingue…! Il est plus que temps d’avoir l’équivalent sur PC Windows… (je suis allergique à MacOS sinon je serais deja passé chez Apple depuis longtemps et ce malgré leurs prix)
Les usines sont à Taiwan.
Nvidia n’a pas d’usine.
Ils font produire par TSMC, qui est en train de mettre en place des usines hors de Taïwan (Europe, Japon et USA).
On n’en veux plus, parle pour toi lol
L’ARM c’est très bien pour de la basse conso mais des que tu veux du gros multicore, ça consomme autant que les dernières gen de cpu X86-64
Les lunar lake et les soc de dernières générations d’AMD arrivent a faire aussi bien, voir mieux que les qualcomm Elite en ratio perf/conso…
Autant j’ai aucun doute sur la partie iGPU, ils sont très bons dedans, autant la partie CPU ça n’a jamais été leur fort, au contraire, mais bon ils ont des moyens colossaux, et un marché PC ARM avec très peu d’acteurs (2 il me semble), donc il y a un marché, mais bon même si Windows ARM a beaucoup progressé, il y a encore pas mal de soucis.
rien à ajouter … ta tout expliqué parfaitement ![]()
faut se rendre à l’évidence et arrêter tout le temps de voir ARM comme le messie qui va révolutionner l’informatique.
l’écosystème ARM n’est pas très développé, on peut pas remplacer x86 juste d’un claquement de doigt et surtout les performances ne sont pas les mêmes car ARM utilise beaucoup beaucoup d’instructions pour faire le même travail que peut faire x86 en 1 ou 2 instructions donc imaginez la puissance que possède x86. ce qui fait qu’un processeur ARM doit tourner encore plus vite pour faire la même chose que x86 … c’est juste une explication rapide ce n’est pas tout le temps comme ça mais ARM et x86 c’est deux mondes très différents.
Le gaming aussi qui est un marché très juteux est un problème, Tous les jeux de nos jours sont presque exclusivement x86.
Donc vous allez demander à tous les éditeurs (Rockstar, EA, Ubisoft, Capcom, Activision …) de nous faire des jeux sous ARM ? alors qu’ils galèrent déjà à optimiser les jeux qui sont sous un architecture qu’ils connaissent depuis 30 ans et +
Alors ça c’est ce qui de drôle avec ARM, tout le monde voit un CPU arm comme un cpu de smartphone basse consommation sauf que un CPU ARM de compétition ça consomme tout autant qu’un CPU x86 … après faut pas comparer un 14900k c’est pas la faute à x86 c’est intel qui fait de la Merde !
ARM utilise l’architecture RISC qui nécessite une armée d’instructions pour faire la même chose que fait CISC avec peu d’instructions et tout ça quand ce n’est pas bien fait (optimisation et tout) beh ça va nécessiter d’utiliser des ressources supplémentaires, le stockage et la RAM.
Donc des jeux ARM comme ceux qu’on a aujourd’hui auront un code énorme et consommeront plus de ressources (encore une fois je me base sur ce qui se fait actuellement, l’optimisation n’est pas au rendez-vous).
Faire une version ARM de cyberpunk 2077 bien optimisée … j’imagine même pas combien ça va être le bordel pour un programmeur !
Pour être honnête, si on a un Cyberpunk 2077 sur ARM ça va consommer 100 watts comme du x86 … les gens croient qu’ils vont jouer à Cyberpunk sur ARM à 20 Watts ![]()
Il ne faut pas voir ca comme un cpu arm , une carte mère et un gpu soudé avec sa vram soudée, encore que …
Non, depuis AMD et ses APU et le M1 d’apple avec sa mémoire ram sur le SOC, il est quasiment certain que NVIDIA fera une bon gros APU avec mémoire unifiée sur le SOC, le cpu sera un emprunt à la série 9000+ de Médiatek, la ram en GDDR7 avec des timings serrés.
Sans compatibilité binaire, ça va être assez limité pour un moment…
Donc vous allez demander à tous les éditeurs (Rockstar, EA, Ubisoft, Capcom, Activision …) de nous faire des jeux sous ARM ? alors qu’ils galèrent déjà à optimiser les jeux qui sont sous un architecture qu’ils connaissent depuis 30 ans et +
Ca n’a pas d’importance. On code en C++ et en shader, on ne voit quasiment jamais le jeu d’instruction natif du CPU. Jeu d’instruction qui est plus fourni sur X86 mais en pratique ça n’importe pas. Sur Xbox 360 on avait des PowerPC et ça ne changeait rien alors qu’il y avait d’autres différences. Les archis hétérogènes type Cell étaient déjà plus difficiles, mais en général le souci c’est plutôt la latence réseau et du stockage de masse, et le multiprocesseur y compris le couple CPU/GPU. Et surtout l’algorithmique.
Je pense que ARM a de l’avenir, pour plusieurs raisons, surtout l’espace wafer utilisable à des choses plus productives que des features des années 70 etc.
tout ce qui est exécuté par Windows est du x86 sans exception, nos CPUs ne savent pas exécuter autre chose.
Ton jeu il peut avoir le code qu’il veut, il finit par être exécuté par une machine x86 qui comprend que ce jeu d’instructions.
C’est comme un émulateur d’une machine … il exécute le code avec le matériel émulé qui est carrément différent de la machine hôte (c’est un peu le but de l’émulation d’ailleurs) … par contre ton émulateur lui c’est du x86 parce qu’il comprend rien d’autre.
L’émulateur s’occupe d’interpréter tout pour la machine émulée ce qui demande une puissance de calcul énorme (en plus de la puissance requise pour faire tourner ce qu’on fait tourner sur la machine) rien à voir avec la virtualisation dont la perte de performances est marginale.
Je n’ai pas dit le contraire, ARM est très utilisé dans les Data Centers mais de là à arriver chez tous les utilisateurs … j’ai un doute.
Microsoft n’a pas l’air très motivé pour démocratiser l’architecture ARM.