Sur la grande scène du silicium, ARM caracole en tête d’affiche, mais x86 refuse la sortie de route. AMD campe au centre du plateau et martèle un message simple : l’efficience n’est plus un monopole.
Les arms sont très bien pour l’embarqué mais sont très loin du compte face aux desktops & serveurs.
Surtout que pendant un moment ça ronronnait chez Intel tant que AMD n était pas revenue. Et pendant ce temps là arm sont monté.
Mais même si il est vrai que les puces m4 sont vraiment bonne, si on cherche du productif un x86 avec une rtx sera plus puissant et efficace. Je parle pas des bench mais des rendu vidéo,… Des choses plus complexe.
Et même les m4 pro consomme pas mal et surtout la douille d Apple est d avoir un bon dissipateur thermique ce qui fait de mettre souvent leur cpu à 90-100° sans que les gens s en rendent compte et juste content que ça souffle pas beaucoup.
Mais les derniers cpu de laptop amd sont vraiment bon, à voir dans 3-4ans.
Perso le problème est la logitech, trop de soft x86 et soit existent plus ou alors beaucoup trop cher pour une upgrade si un jour il y a une vers arm, sans parler de mi de des cracks
Étrange il me semble pourtant que les Pc Arm ont du mal a se vendre. On sait que pour les Npu les AMD Strix comme l’am AI 370 et même 365 sont bien plus performants que pc Arm qui par définition ne sont pas 8086. Pour ma part j’ai choisi un AMD 370 et je m’investirai pas dans un Arm même si Microsoft les poussent. D’ailleurs MS gère enfin sur les dernières versions de Windows 11 24 H2 les Npu de AMD et Intel.
AWS vend de plus en plus ses instances à base d’ARM maison et ses SOC ARM Graviton sont vraiment performants et ils le sont d’ailleurs de plus en plus.
Dire qu’ils sont de plus en plus performants ne veut pas dire grand chose, c’est le cas de tous en général (sauf erreurs de conception).
Parce que ça coûte moins cher en exploitation pour amazon du fait d’une consommation électrique moindre mais ça reste toujours comparativement bien moins performants que les AMD & Intel dernière génération.
ça n’enlève rien à leur intérêt, mais ils ne jouent pas dans les mêmes catégories.
Ce qui fait la force des CPU ARM s’est leur « simplicité relative » par rapport à l’architecture x86.
On compare une architecture (pseudo) RISC à du CISC. L’une à été crée pour des taches simples (mais rapides) à l’autre qui a été conçue spécifiquement pour des taches variées et lourdes.
Les 2 architectures tendent à se rejoindre par l’ajout de fonctions de plus en plus complexes au sein de l’architecture ARM. Ce faisant, on peut, de moins en moins, considérer l’archi ARM comme du RISC et ça se ressent sur les consommations et les TDP.
Plus l’archi ARM va s’étoffer, plus elle consommera et chauffera pour atteindre la consommation et la chauffe des CPU x86 (cores, fréquences et charges égales).
Les CPU ARM multi-cores pour datacenters (ou serveurs) commencent à avoir des consommations et chauffes qui se rapprochent des CPUs x86 pour serveurs et sont (pour la plupart) cantonnés à des serveurs à charges faibles.
De plus, il ne faut pas confondre optimisations réalisées du coté software et performances hardware. Si tous les OS et logiciels étaient écrits en assembleur au lieu d’être cross-compilés (je parle même pas de ceux écrits avec les pieds) on estime que le gain de performances sur x86 serai de 100 à 300 fois plus rapides. Mais on n’est plus dans une époque ou on pense « optimisations » dès l’origine des developpements et on compte sur la puissance de la machine pour pallier aux défaillances (incompétences) d’optimisations.
C’est qui « on » ? Parce que 100 a 300% de gain c’est pas rien.
D’abord, je ne parle pas de pourcent mais de fois (X).
Et le « ON » est le constat qui est effectué, et généralement admis par la communauté des devs, qui continuent à coder en assembleur (pour des taches spécifiques ou à haute criticité) dont je fait partie.
Exemple :
https://menuetos.net/
Ah oui pardon j’essayais d’être charitable mais c’est pire en fait, tu parles de 10 000 à 30 000 (un peu moins) % de gain ^^
Ah oui mais on parle de cas bien ciblés vs refaire un os. Il est peu probable qu’on ai un windows 300 fois plus rapide je pense et j’ai dû rater le consensus là dessus.
MDR,
Jusqu’à Windows 3.x, des parties importantes étaient écrites en assembleur, puis depuis les premières versions de NT (NT3.1), de plus en plus de parties étaient cross-compilées, par les devs de Microsoft, depuis une machine avec un archi R4000 (pas celle de la PS1 hein) et DEC.
Et je pense, que oui, un retour vers le macro-ASM doit être très difficile pour MS. Mais pas impossible pour certains progs en « homebrew » (Github).
Ah c’est clair, y’a des cas ou le jeu en vaut la chandelle comme on dit
Quand on voit comment les applications « enflent » de version en nouvelle version et parfois pour pas grand chose, on doit vraiment se poser la question du « gâchis » de mémoire(s) et de cycles CPU.
Un constat : On ne sais plus optimiser… et il n’y a plus d’écoles qui l’enseignent.
Il faut pas s’étonner qu’il nous faut des puissances CPU de fous, des quantités de mémoires (RAM et SSD) à faire pâlir la bibliothèque de France juste pour faire tourner un simple traitement de textes et un tableur.
châpeau !
Sans compter le manque d’optimisation de l’hyper treading…