Commentaires : NVIDIA : un processeur ARM avec GeForce intégrée pour les PC Windows en 2025?

Les premières rumeurs concernant le prochain processeur de NVIDIA dédié aux PC Windows commencent à parcourir la toile, et elles donnent d’importants indices sur les ambitions du géant des semi-conducteurs.

L’IA locale et sans Cloud sera le nemesis de tous ces nouveaux acteurs qui misent sur des data centers pour parasiter les terminaux de leurs futurs utilisateurs et leur coller un abonnement souvent inutile.

Bravo.

1 « J'aime »

SOC utilisable pour une nouvelle shield ?

Ce virage du x86 vers ARM pourrait donner des choses très intéressante, le duopole Intel / Amd seront concurrencé par d’énormes monstres comme Qualcomm et Nvidia.

La fin du x86 d’Intel s’amorce.
Les errements d’Intel, entreprise d’ingénieurs transformée en machine à cash par la financiarisation de l’économie US (comme Boeing qui passe sous le contrôle d’une agence étatique pour gérer les c* des financiers). Pour ces entreprises le résultat est structurellement identique.
Patent, le manque d’investissement dans la finesse de gravure et la subite incapacité des ingénieurs embauchés à avancer a été fatal puisque TSMC qui était bien retard a finalement rattrapé et dépassé Intel. Vieux jeu d’instructions (1978), moins efficient énergiquement, inadapté pour les téléphones mobiles, et pas d’évolution de la finesse de gravure pour compenser la consommation, la liste commence à être (très) longue pour le x86 face à ARM (1990). Et ce n’est pas fini.
La transcription de Windows pour ARM (2011) aurait dû sérieusement les alerter, il n’en a rien été. Celle de la Pomme (2020) vient clore le débat.
Intel n’ a jamais eu de véritable concurrent ; AMD était battu à plate-couture et ne pouvait rivaliser avec leurs ingénieurs jusqu’à l’arrivée de Lisa Su (2014) qui a, littéralement, sauvé AMD de la faillite. AMD a remonté la pente et a pris des parts de marché tant pour le grand public que pour le secteur professionnel où il n’existait pas. Et ce n’est toujours pas fini dans la dégringolade.
Incapable d’avancer sur la gravure, Intel est obligé de demander à TSMC de lui graver ses processeurs pour rester compétitif dans le marché des portables qu’il possédait (toujours) à 100%.
Fidèle parmi les fidèles d’Intel Dell a mis des années à introduire AMD dans son offre portable, et seulement pour un ou trois modèles d’ordinateur.
Là, sans quitter x86 pour autant, avec W11 ARM Dell passe à ARM avec Qualcomm et l’an prochain Nvidia.
Le coup de grâce arrivera quand MS va transcrire Direct X 12 sur ARM ce qui n’est pas (encore) le cas pour W11 ARM. MS ne peut pas laisser Vulkan comme API de jeu des futurs ordinateurs ARM qui tourneront sous Windows comme il l’est déjà pour les téléphone mobiles/tablettes Android. C’est impossible. Cela ferait basculer le monde du jeux (PC et à terme console) vers une API libre de droits et la fin du monopole sur les jeux. Donc x86 perdra aussi, à terme, le monopole du jeux sur ordinateurs. Que va-t-il rester au x86 d’Intel ?
Sous l’impulsion d’un fonds actionnaire, au vu de la situation, Intel a nommé (2021) Pat Gelsinger PDG. Ex Intel, ingénieur, il a compris le danger ; il veut rattraper TSMC sur la gravure, créer un TSMC-like, et se mettre au travail. Intel reçoit actuellement les dernières machine d’ASML, seul fabricant des machine lithographiques pour processeurs. Gelsinger est l’artisan de la fabrication des Arrow Lake qui vont sortir bientôt, mais gravés en 3nm par TSMC.
Ces processeurs x86 vont-ils être aussi efficient que les ARM de Qualcomm et de Nvidia en terme énergétiques ? Parce que la question est là et nulle part ailleurs. Or, par nature, le x86, contrairement à ARM, n’a jamais été pensé en ces termes.
C’est le moment de vérité pour Intel. Arrow Lake va donner une première réponse bancale : gravé en 3nm par TSMC, que vaudra-t-il face à Qualcomm et au futur Nvidia ?
Intel saura-t-il arriver au 3nm tout seul ?
Combien de temps vont-ils sous-traiter à Taiwan ?
Enfin, le x86 est-il encore viable ?
Voilà les questions posées.

1 « J'aime »

Quand on regarde objectivement les perf des puces Apple, les fameuses M1 à M4, force est de constater qu’elles sont loin d’être ridicules face aux X86.
Si on regarde l’autonomie des PC portable, là, il n’y a même pas débat. Apple laisse sur place tous les concurrents.

Je ne suis pas très PC portable, ni console portable d’ailleurs.
Ce que j’attends, c’est justement un PC fixe en ARM Nvidia sans solution graphique integré (ou le minimum mais desactivable) pour y adjoindre une vrai carte graphique dédiée.
Et là, il y a de grandes chances (si les API sont prêtes et performantes) de rivaliser, voir écraser et même enterrer le X86.
On devrait pourvoir drastiquement réduire la consommation de l’ensemble, voir trouver un nouveau form factor pour le format tour

Pas en tablette, il semble que l’accord avec Nintendo courre toujours (NVidia ne peut pas créer de tablette)

Ca va plus loin. C’est la fin annoncée de l’ordinateur « industriel » comme on le connaît. Nos PC avec des cartes d’extensions, c’est fini. C’est anti écologique, c’est inutile, c’est extrêmement coûteux à produire (carte mère multicouches, avec plein de bus), et c’est une architecture surannée avec un CPU central qui fait tout.

Ce n’est pas tant le x86 qui pèse (80k transistors pour l’implémenter) que l’héritage « industriel » du PC.

Actuellement, on peut jouer sur des PC qui consomment 60W à fond. Adjoindre une RTX, ça ne changera pas grand-chose à la conso.
Un ARM « performant », c’est jusqu’à 60W de conso (chiffres qualcom, et même Apple) pour rivaliser avec un Ryzen (qu’on peut mettre à 60W aussi)…
Un Apple M1, c’est proche des perfs d’un Ryzen 25-35W (bon, parfois il l’écrase, parfois c’est le ryzen qui l’écrase)
La conso CPU, c’est beaucoup le cache. Ensuite, il y a la RAM qui consomme pas mal non plus.
Je n’attends pas vraiment de miracle si on compte garder les programmes actuels et leur complexité (100Mo de ram consommés mini pour afficher des SMS sur un tel, standard d’affichages stupides comme le HTML et le CSS, beaucoup moins automatisables que du PDF ou du Postscript en son temps …)

Dans mon cas c’est plutôt la box qui m’intéresse.

On ne doit pas parler des memes PC alors.
J’ai une consommation en pick de 650W. J’ai une alim de 1000W
Rien que le GPU c’est plus de 300W.
Le CPU c’est 105W de TDP. Je ne connais pas sa consommation réelle.

Un Ryzen 7 de 105W, à 65W il donne plus de 90% de ses perfs.

J’utilise depuis des années des PC à conso limitée (alim de 300W maxi pour celui de jeux, CG de 70W maxi). Mon PC principal est un Ryzen 35W. Pas de CG. Conso en pointe: 60W (alim: 65W). Utilisation: dev, internet, jeux, et maintenant IA (mais là un NPU ferait du bien).

Du coup, je vois bien l’intérêt de PC ARM, mais aussi que ça ne va pas changer grand-chose dans mon cas, ou dans le cas des PC bureautiques, sauf le prix.

Et l’argument n°1, c’est TOUJOURS le prix pour la plus grande masse (pas pour les passionés).

Les ARM permettront de créer des PC normalement moins chers - mais on l’a déjà fait avec les Atom, Celeron, Pentium ou la Surface RT… on sait que ça se vend à la pelle. En espérant que les variantes ARM futures soient plus convaincantes.

Je ne doute pas qu’il démarre et serve à faire quelques jeux casual.
Je vois beaucoup moins un PC de ce genre faire tourner un Cyberpunk en 1440p raytracing !!!
Même avec le DLSS, çà ne fonctionnera pas du tout.
Idem pour de l’encodage vidéo où c’est la carte graphique qui me permet d’encoder à 475 fps soit 16x la vitesse en H264 1080p.

Le miens un Ryzen 9 3900X stock. Aucune modif de fréquence.
Le GPU une RTX 3080 12Go

L’argument pour moi est un peu différent. J’ai besoin de puissance de calcul pour le traitement vidéo, pour les encodages. Et aussi ne pas attendre 10j où je ne pourrais pas utiliser mon PC car monopolisé pour une tache.
Je ne change pas tous les 4 matins de config non plus. Le boitier a déjà vu passer 3 config.
mon précédent processeur était un Intel I7 3770k. Il a eu une longue carrière
Ma précédente carte graphique était une 1080 qui s’est retrouvé limité à une époque où j’ai eu un écran 4K pour bosser.

Je te rejoins totalement.
Même si je sais que les premières machines seront certainement des PC Portable et là, je ne suis clairement pas la cible.
Comme Apple l’a fait avec son M2 décliné en M2 Pro puis M2 Max puis M2 Ultra, c’est un modèle type Max ou Ultra que j’attendrais.
48 ou 76 Coeurs physiques.
La partie NPU et toutes déclinaisons IA, je n’en vois pas l’utilité. Seule le traitement d’image DLSS ou DLAA mais c’est la CG qui gère.
J’ai bien testé des IA mais pour le moment je n’y trouve absolument rien d’utile.

1 « J'aime »

Pour ceux que ça pourrait intéresser, un petit comparatif des performances de l’Intel i9-14900HX vs M3 Max, alors si certains pourront arguer que l’on ne peut pas comparer, il ne faut pas oublier que l’on peut utiliser de plus en plus d’applications x86 sous ARM grâce à Rosetta 2 (et son émulation « à la volée »). Quand les applications ne sont pas ARM nativement. Là où Apple a fait fort, c’est le peu de différences de performances entre les programmes émulés et natifs.