Même si je pense que l’on ne peut faire disparaître une boite comme Intel comme ça, dans un claquement de doigts, la logique voudrait que celle-ci reste dans le carcan de l’état US. A partir de là, et comme beaucoup le souhaitaient il y a quelques temps, un fusion Intel/Nvidia ne serais-elle pas l’option la plus viable ?
Pour mémoire, AMD a « fusionné » avec ATI en juillet 2006, rapidement racheté cette dernière 3 mois plus tard et a fait disparaître la marque en 2010. Bon, c’est vrai, ATI c’était Canadien et les US n’aiment pas ce qui n’est pas US.
C’est déjà ce que font tous les CPU x86 depuis plusieurs décennies. Et de manière générale en fait, quasiment tous les CPU, quelque soit leur architecture, sauf ceux destinés à quelques niches ou vraiment la simplicité de la puce et sa faible consommation sont absolument prioritaires sur tout le reste. Mais on parle là plus de CPU faisant office de super micro-contrôleur que de CPU destinés à faire tourner un appareil avec un OS complet et des applis diverses et variées.
Il est en effet très rare aujourd’hui que le cœur d’exécution d’un CPU fonctionne directement avec les instructions de son ISA, il y a généralement un étage de décodage qui va traduire ces instructions en instructions élémentaires comprises par le cœur d’exécution. Et souvent en plus des étapes de réorganisation pour optimiser l’ordre d’exécution de ces instructions élémentaires pour maximiser les performances, et notamment essayer d’utiliser en parallèle les différentes unités de calcul du CPU.
Une partie de ces étapes est même en réalité faite de façon « logicielle » : c’est le rôle du microcode des CPU.
Le x86 terminé ?
Pas du sûr les derniers lunar lake sont plébiscités pour leur rapport performance/autonomie. Avec la force de frappe Intel ça peut vite remonter
La vous confondez le back-end et le front end du CPU. Le « microcode » qui sort des décodeurs est dépendant de la version du CPU depuis longtemps, mais là je parle bien du jeu d’instruction X86 qui serait exécuté par émulation hardware, comme ça a été le cas avec plus ou moins de bonheur sur certains CPU.
Pourquoi on devrait choisir entre le X86 et ARM ? on peut avoir les deux et c’est ce qui doit se faire parce qu’on peut pas passer directement à ARM …
Ils sont où les jeux PC ARM ??? … déjà que l’industrie est en crise !
Microsoft avec windows et les éditeurs c’est eux qui doivent entamer la transition … le client final lui il est consommateur c’est tout.
Si on commence maintenant, d’ici 20 ans on pourra avoir un PC Gamer de compétition en ARM ![]()
Déjà fait dans les années 90 (Strong ARM)
« Le X86 est vieux (les fondations d’une vieille maison en gros), et consomme beaucoup trop »
Ce n’est pas si simple.
Pour traiter de la news: de mon point de vue, cette annonce de Qualcomm avait surtout pour but d’ouvrir les yeux aux clients :" Regardez, c’est moi Qualcomm le champion des semis conducteurs ici, pas Intel", notamment avec le lancement des premiers PC ARM qui sont plutôt boudés (pour de bonnes ou mauvaises raisons justement - genre la peur de la nouveauté)
Pour ce qui est du x86 qui consomme: pendant que Qualcomm fait des PC portables qui sont bien-mais-pas-top et montrent que dans un PC, si ARM améliore l’autonomie ce n’est pas d’une grande marge (sauf à couper le Wifi - mais c’est pareil sous Intel), de l’autre côté, Intel et AMD sont en train de se battre sur un petit marché de niche our le moment: les puces intégrées performantes (les consoles portables, les PC de moins de 1L …) - et réussissent bon sang!
Dans un CPU taillé pour la performance, le décodage des instructions ne représente qu’un tout petit pouième de la complexité du CPU.
Une fois les instructions décodées, elles sont éclatées, réordonnées, affectées, les registres renommés, exécutées, réassemblées - que ce soit du x86, de l’ARM ou du RISC-V.
Le CPU gère le cache, le branch prediction … et c’est cela qui coûte et consomme.
AMD, puis Intel ont travaillé à ce que les x64, SSE, AVX soient des jeux d’instructions plus « linéraires » - pendant ce temps, ARM a augmenté le jeu d’instruction et intégré les SIMD dans le tronc commun.
Au final, les deux sont proches!
La différence se joue encore au niveau des compilateurs: il faut que le compilateur sorte les bonnes instructions et dans un ordre qui va favoriser le branch prediction.
En faisant cela, on optimise le parallélisme des micro instructions - et tous nos CPU "high perf"ressemblent de plus en plus à un VLIW de transmeta plus qu’à une machine classique.
La basse conso de ARM et RISC-V ne concerne pas tant les CPU/SOC qu’on a dans les téléphones que les minipuces intégrées dans les cartes Wifi, cafetières, prises connectées qui ont une architecture « simple » sans tous cela.
Bref, des 2 côtés, ARM et x86, il y a de vieilles légendes liées à l’origine - mais le présent est très différent. Quand tu écris « les perfs en ARM étaient mauvaises il y a quelques années », ce n’est pas tout à fait vrai, car à ce moment certainement l’architecture interne était simpliste, comme celles des intel ATOM ou des PowerPC de la XBox 360, qui étaient amputés des optimisations « dynamiques ».
Pour rappel, Intel a fait des CPU, les core-m, qui étaient plutôt performants pour les 3,5W de TDP qu’ils avaient en intégrant en plus la puce graphique… Des machines bureautiques plutôt intéressantes, mais le marché du PC était celui de la perf de calcul, pas de l’autonomie.
J’ai rien, contre le modernisme. Toutefois, celui-ci, peut très vite se révéler néfaste !
Parce que ce qui est moderne, est plus cher.
Et en ce moment, du moderne, il y en a beaucoup : les voitures, auxquelles il va falloir rajouter les ordinateurs et les téléphones…
J’espère que votre porte-monnaie est bien garni…Sinon, vous devrez faire des choix.
Un ordinateur ARM, avec une vieille voiture et un vieux téléphone ou une nouvelle voiture (électrique !), avec un vieil ordinateur et encore un vieux téléphone ou alors, une voiture et un ordinateur ARM et avec un crédit conséquent sur le dos, et même pas la possibilité de s’acheter un logement.
Ça va devenir compliqué, de se nourrir…![]()
Je sais pas si t’as vu, mais comme il ne connaissait pas, j’ai simplifié, donc évidemment que « c’est pas si simple »…
Oui, mais en continuant je trouve les « à priori » habituels: x86 trop consommateur, ARM = basse conso + « dans le futur ARM sera meilleur »: rien ne le dit. Pour se faire un idée, il faut attendre de voir ce que Intel et AMD vont sortir en CPU avec la RAM soudée.
Sans compter que le paradigme du CPU a pas mal vécu, et que la perf passe par les copro pour le moment - bizare que ni AMD ni Intel n’aient fait un extension intégrée au CPU d’ailleurs…
Pour l’instant TOUT le dit justement. C’est très peu probable que le X86 arrive au niveau d’ARM pour les perf/conso.
Citation
Pour l’instant TOUT le dit justement
Justement non, dans la gamme des TDP 20-28W, ce n’est pas clair du tout.
Et même dans la gamme des 7-10W, je ne suis pas sûr que ARM soit sur une victoire franche, surtout si les x86 hautes perfs deviennent des soc avec mémoire soudée sur le CPU.
Et ARM a le même « problème » que x86 ou RISC-V: une ISA non figée. On critique souvent Intel avec les ajouts MMX, SSE, AVX. Sauf que chez ARM, il y a eu les mêmes: VFP, NEON, SVME, SVE/SVE2… Et chez Risc-V, même topo: risc-v ne veut pas dire grand-chose, ce n’est que le coeur d’instructions en entiers, les instructions basiques qui sont incapables de supporter du multimédia (de façon efficace).
Si x86 (le vieux coeur) est assez mal foutu, les extensions x64, SSE, AVX sont mieux faites. Et le coeur x86 tournait sur 80000 transistors, c’est peanuts dans un CPU actuel! (sans compter qu’il a été optimisé, simplifié, plusieurs instructions ne sont plus câblées en dur…)
Je répète: les core-m à 3,5W avec coeur graphique intégré étaient de bonnes machines, largement aussi (plus?) performantes que des ARM de tablette de conso en pointe équivalente. Ce qui manquait à Intel, c’était le BIG.little et la RAM intégrée au CPU.
Le x86 n’est pas SI consommateur, simplement il a été surtout poussé sur le segment de marché de l’ordi de bureau qui bourrine. Les efforts pour du x86 moins gourmand (pour rappel, le « TDP » d’un 286 ça doit être 2W) ont existé (IBM avec les 486 SLC en moins de 3W, Cyrix avec les MediaGX, Transmeta, VIA avec les C3), mais le marché n’était pas là pour les accueillir.
Le cas des C3/C7 est intéressant, car il a été documenté que les outils de benchmark utlisés dans la presse étaient bidonnés indirectement par Intel: si le CPU utilisé n’était pas un intel, le SSE n’était pas utilisé dans les benchmark. Ils n’ont jamais été des bêtes de course, mais en réalité ils étaient nettement plus performant que leur réputation, en 5à10W dans les années 200x avant le boom des tablettes et smartphone (pour situer, le TDP estimé d’un Tegra dans une tablette, c’est 5-15W)
Ne confonds pas TDP et consommation. Un TDP, notamment chez Intel est en rien égale à la consommation.
Non, je ne confonds pas, mais c’est un peu la seule mesure qui reste pour évaluer « en gros ». Et sur les petits TDP, c’est proche de la conso maxi.
De plus, ça ne donne qu’une idée de la conso maxi en pointe qui n’est pas la situation la plus probable dans la majorité des cas.
C’est d’ailleurs une des premières remarques que j’ai faite lors de la sortie des PC ARM: de mon expérience du PC x64, la différence d’autonomie entre « chargé » et « non chargé » est énorme (en gros: de 10h à 3h d’autonomie) - et ma question était de savoir si l’autonomie est autant impactée sur un ARM. J’attends toujours, car ce serait plus révélateur d’un écart (mais bon, phoronix nous donnera cela un jour).
Mes mises en garde sont surtout basées sur les expériences précédentes d’optimisation soit de la consommation d’énergie (expl: Intel Edison), soit de la performance (ARM avec SVE2).
Pendant que l’ont tente d’améliorer les perfs d’ARM (au prix de la conso), x64 tente d’améliorer la conso (au prix des perfs).
L’exemple de Risc-V est éloquent: la conso explose avec la montée en perf et complexité (jeu d’instruction).
On a eu des 8086 qui fonctionnaient sur piles & batteries des 1989 (Atari portfolio jusqu’aux HP LX, 30h d’autonomie et j’ai eu un organiseur programmable casio ou olivetti, sur pile 3V, en x86) - le x86 n’était pas un frein à la faible conso .
Justement, ça donne une idée, mais comme chacun à sa propre façon qui l’arrange pour le calcul (n’est-ce pas Intel…), c’est donc pas une valeur suffisamment fiable pour la compter comme un équivalent. Rien qu’à voir les CPU Intel 125W qui consomment plus de 270W en charge…
On parle des basses conso et de l’autonomie. J’ai parlé des TDP surtout pour rappeler que Intel a fait des produits convaincants dans le domaine des téléphones/tablettes.
Oui, mais à part avec les derniers Lunar Lake, ça faisait longtemps qu’ils étaient à la traîne dans ce domaine.
Totalement. Mais c’est ce que je soulevais: on compare deux marques, mais qui ne se battaient pas sur le même segment de marché, et dont les produits n’étaient pas optimisés pour les mêmes usages.
Je pense bien qu’Intel/AMD ont un retard pour faire de la très basse conso, mais je pense aussi qu’ARM (enfin Qualcom) a du retard pour faire de la perf dans tous les domaines.
Transmeta à son époque a bien montré la voie pour un PC nettement moins gourmand avec des perfs assez correctes. VIA aussi en fait. NEC aussi par un moment. On a eu du x86 intégré dans des caméras pour le traitement vidéo « à la source » fin 90.
C’est juste que le PC a gagné en perfs surtout grâce à la maîtrise du point de combustion du CPU ![]()