La nouvelle puce ARM d’Apple ne semble laisser personne indifférent. Et pour cause, les premiers retours sont particulièrement positifs, notamment en ce qui concerne les résultats des tests de performances. Du côté de Linux, on s’imagine même l’utiliser pour exécuter le kernel.
Linux c’est 1991, pas 1994 ! Et je ne suis pas surpris, dès que j’ai lu l’article sur les performances de ces Macs, j’ai pensé aux processeurs Transmeta dans lesquels Linux avait investi au tournant 1990s/2000s, qui avaient hélas fait faillite.
Linus avait travaillé pour Transmeta il me semble.
Pour le moment, ces SoC ARM (Apple) ne permettent pas d’avoir un GPU dédié en parallèle. Mais dans le futur, il est certain que Nvidia sera impacté. Celui-ci va vite devoir s’adapter à cette nouvelle réalité par des partenariats ou des rachats. Déjà débuté en fait, mais à accélérer pour ne pas s’enfermer économiquement sur le seul marché des GPU. Mais le plus probable est un rapprochement AMD-Intel-Nvidia pour contrer Apple dans un futur proche.
Nvidia n’arrive pas à s’implanter durablement dans d’autres écosystèmes (Consoles / Ecosystème Gaming) par manque de partenariats, mais reste dominant dans les GPU grands publics, professionnels et industrielles (recherche).
Intel a profité d’un partenariat avec AMD pour obtenir des iGPU plus performants, mais peine toujours au niveau de l’optimisation logicielle (driver). Et restent dans la course au niveau des CPU.
Et AMD est le seul à avoir augmenter ses parts de marché « partout » (GPU, CPU, tout domaine) grâce à une stratégie de restructuration (plus d’usines de fabrication, et implantation durable dans les consoles de jeux vidéos). Mais il reste un petit poucet face à Apple et Intel.
La faille d’Apple serait de limiter volontairement ses SoC à ses seuls appareils. Par le passé, ils ont toujours faits le choix de garder cette main technologique et logicielle afin de pousser les usagers à venir chez eux (et contrôler la production). Mais on ne s’impose pas numéro 1 avec ce genre de stratégie.
la realité de l’arm va vite arriver et posera probleme non pas des la prochaine generation mais dans 5/6 ans… et ceux qui ont programmé en arm le savent pertinament pour ma part on verra bien je laisse 6 ans pour voir si ils arrivent a ne pas faire comme les autres et du coup a reellement gagner la bataille
apres en terme de performance tant qu’on ne peut rien comparer c’est tout bonus pour apple mais des que la comparaison sera possible la ca ne sera surement plus le meme debat (j’attends la version d’adobe premiere et les premieres enco pour voir ce que ca vaut reellemnt)… apres si il faut je me trompe aussi donc sans test pas debat sur les perfs
oui je confirme pendant 4 ou 5 ans
Vous pensez qu’à plus ou moins long terme, l’archi X86 va être totalement remplacée par l’ARM ?
Il était même co-fondateur
Pour le moment, difficile de dire. L’architecture ARM a du potentiel pour sortir du secteur « Mobile/Tablette ». Personne n’en doute vraiment. Il y a une convergence marquée ces 10 dernières années vers des appareils polyvalents et partageant une architecture commune.
Plusieurs s’y sont tentés (Intel / Microsoft, ARM ou x86) mais soit la technologie n’était pas encore au point, soit l’écosystème et l’utilisabilité était défaillante. Ceci dit, ils ont défriché le marché pour les autres. Le potentiel est là et n’attend qu’un leader émerge.
La question est si ARM parviendra à -au minimum- équivaloir les performances de l’architecture x86 pour des besoins applicatifs lourds. Si la percée se confirme, et que l’architecture x86 se retrouve dans une impasse technologique dans les prochaines 5-10 prochaines années, alors oui, ce sera un « remplacement ». Reste la convergence applicative aussi (la compatibilité). C’est d’ailleurs sur cela que travaille le plus Apple présentement.
Mais cela fait beaucoup de si. On en sera déjà un peu plus au courant Q1-2021 avec l’arrivée de plusieurs logiciels importants (pour les créatifs par exemple) et les véritables benchmarks.
Les gens sont d’un conservatisme…Que des experts de la tech ou un gars comme linux qui ne peut pas blairer apple disent que cette puce (et le portage ARM) sur laptop est un prouesse, c’est que c’est un peu vrai.
Je ne suis pas pro Apple, je n’aime pas trop leur enfermement d’ailleurs mais la puce M1 est un saut technologique (le rapport puissance/watt est inédit).
j’utilise également windows et linux et j’aimerai avoir cette puce ou un équivalent (que ça soit du huawei ou autre firme) Je pense que Huawei peuvent sortir quelque chose d’aussi optimisé s’ils arrivent à débloquer leur embargo sur la gravure en 5nm
La question est si ARM parviendra à -au minimum- équivaloir les performances de l’architecture x86 pour des besoins applicatifs lourds. Si la percée se confirme, et que l’architecture x86 se retrouve dans une impasse technologique dans les prochaines 5-10 prochaines années, alors oui, ce sera un « remplacement ».
Il n’y a pas d’architecture ARM, ni d’architecture x86. Simplement deux jeux d’instruction différents et des processeurs de différents constructeurs qui les implémentent.
D’une manière générale, les performances d’un processeur dépendent plus de l’expérience et du talent de ceux qui conçoivent un processeur que du jeu d’instruction utilisé. (Attention, je parle d’un principe général, ça ne signifie pas que les contre exemples soient impossibles.)
Donc oui, les processeurs basés sur un jeu d’instruction ARM arriveront vraisemblablement un jour à égaler ceux basés sur un jeu d’instruction x86 sur les besoins les plus lourds. Mais, il n’y a pas de raison que les processeurs x86 se retrouvent dans une impasse.
Il est possible en revanche que pour diverses raisons qui peuvent tenir aux accords de licence plus qu’a des raisons techniques, un jeu d’instruction finira par s’imposer et rendra l’autre obsolète.
Ne pensez pas qu’Intel ne peut pas fabriquer des processeurs à jeu d’instruction ARM. Ils l’ont déjà fait.
Le terme « architecture ARM » (ou x86) est une simplification volontaire pour dire « architecture de jeu d’instructions ARM » utilisée en milieu de l’ingénierie infomatique. Mais bon, si on veut vraiment aller à un niveau de détails…
| Architecture de jeu d’instruction (ISA) | Famille d’architecture | Extensions de jeu d’instructions | Exemple de CPU |
|---|---|---|---|
| RISC | ARMv8.2 | FPU, NEON | ARM Cortex-A77 |
| CISC | x86-64 | MOVBE, MMX, SSE, SSE2, SSE3, SSSE3, SSE4.1, SSE4.2, POPCNT, AVX, AVX2, AES, PCLMUL, FSGSBASE, RDRND, FMA3, F16C, BMI, BMI2, VT-x, VT-d, TXT, TSX, RDSEED, ADCX, PREFETCHW, CLFLUSHOPT, XSAVE, SGX, MPX, AVX-512 | Intel i7-10700K |
Donc. Plus simple de dire Architecture ARM vs Architecture x86 dans le langage courant. Le grand public comprend qu’il y a deux approches différentes, les professionnels savent en arrière de quoi il s’agit.
Je comprends bien ce que vous dites, mais s’il est parfois nécessaire de passer outre les abus de langage pour entrer dans les détails qui sont derrière les mots, c’est pour bien comprendre ce qui se passe réellement derrière. Et pouvoir en tirer des conclusions.
Et justement, ce qu’il faut comprendre, c’est qu’a l’heure actuelle, ces deux approches ne sont plus vraiment différentes. Ni le x86, ni l’ARM d’aujourd’hui ne sont à proprement parler des RISC ou des CISC. C’est peut être encore enseigné comme ça dans des vieux cours de vulgarisation, mais c’est aujourd’hui dépassé.
Parce que le x86 actuel est aussi un processeur RISC, car derrière son jeu d’instruction complexe, se cache une unité d’exécution qui traite en réalité des instructions de type RISC (c’est un peu plus complexe, en réalité, mais c’est le principe).
L’ARM actuel est aussi un CISC, car son jeu d’instruction n’est plus « cablé », mais utilise un décodeur d’instruction complexe comme les processeur CISC. Et cela pour diverses raisons, par exemple, parce que cela permet un fonctionnement « superscalaire » permettant d’exécuter plusieurs instructions simultanément dans un même cycle d’horloge.
Bref, ce que je voulait dire, ce n’était pas pour lancer une polémique pour pinailler sur le sens des mots (oui, je sais que l’informatique est un domaine peu précis), mais pour rappeler que tous les processeurs actuels fonctionnement peu ou prou de la même façon, quel que soit leur jeu d’instruction. Et que par conséquent, le jeu d’instruction (x86 ou ARM) ne conditionne plus réellement les performances que les processeurs peuvent atteindre. Du moins pas dans la même mesure que par le passé.
Quand on a entendu parler pour la première fois de l’ARM, c’était il y a longtemps, dans une machine d’origine anglaise qui s’appelait l’Acorn Archimèdes, c’était un peu une révolution en terme de puissance (bien que la machine n’ait pas du tout été un succès en France) car son IPC (instructions par cycle) était bien au dessus des processeurs à la mode à l’époque qui étaient les 68000 (qui passaient le plus clair de leur temps à décoder les instructions). A cette époque, jeu d’instruction ET architecture matérielle des processeurs allaient effectivement de paire. C’est pour cette raison qu’on pouvait confondre le terme d’architecture quand on parlait en réalité du jeu d’instruction. Mais qu’aujourd’hui, justement, les choses ont changé dans le sens ou la typologie du jeu d’instruction ne conditionne plus forcément l’architecture qui se trouve derrière.
Donc sur le papier, l’ARM peut atteindre les performances du x86.
Ce n’est pas dans l’immédiat que les instructions avancées (complexes) de traitement matriciel ou de virtualisation seront portées sur ARM c’est même antinomique.
En revanche, les designs arm semblent du coup plus simples à réaliser et graver, c’est sans doute par ces processeurs que seront introduits les semi conducteurs de demain( à moins d’une niche professionnelle et d une lithographie hybride pour certaines instructions), graphène, nanotubes, par exemple … Le marché n’est pas prêt, mais les performances se tassent depuis quelques années, et certains comme IBM ou Samsung ont déjà des brevets et validé ces nouveaux transistors, il y a quelques années en arrière, répondant et solutionnant le problème de band gap du graphène, des fréquences allant à 400Ghz, théoriquement, cela peut même être plus rapide.
La 6G utilise des oscillateurs fonctionnant aux alentours du tera hertz, de telles fréquences ne sont pas obtenues avec des horloges en silice. W8&C
Je me pose justement la question de RISC vs CISC en tant que dev. Je suis sur différent sujet dans des sujets avec ML et je me demande si ces instructions manquantes peuvent impacter les perfs, voir carrément rendre inutilisable certaines lib. Vu que c’est intrinsèque aux jeux d’instruction, cela voudrait dire obligation pour les dev de rester sur x86 si on touche à de l’IA par exemple.
Dans le cas du M1 il y a justement des core pour la partie ML dédiés, même si cela laisse présager de meilleure perfs, est-ce que cela veut-dire des lib spéciales pour taper dans ces cores ?
EDIT : J’ai une partie de ma réponse ici : https://global.techradar.com/fr-fr/news/apple-m1-rend-ia-machine-learning-plus-rapides
@KlingonBrain, en tant que néophyte sur ce sujet, je trouve les abstractions de @Bibifokencalecon tout à fait suffisantes pour comprendre l’enjeu x86/arm, le reste c’est du détail pour les pro (qui n’en ont pas forcément besoin) ou de l’étalage de confiture pour le grand public (pas plus besoin)
Ne serais-ce que pour rappeler, dans le cas présent, l’inutile comparaison CISC/RISC ça ne fait pas de mal, bien au contraire.
On en reparle dans 10 ans, sa laisse du temps que les gens soient équipé, c’est comme la 4g en france avec ses nombreuses zones blanche, alors la 5 G… 2026 ?
Je n’ai rien contre les abstractions qui permettent de vulgariser la technologie.
Le souci, c’est qu’en utilisant des abstractions anciennes qui ne correspondent plus du tout au fonctionnement des processeurs d’aujourd’hui, on peut facilement arriver à des conclusions fausses.
Si vous préférez une explication simple, aujourd’hui, tout le monde fait à peu près la même chose en utilisant des solutions techniques relativement similaires et bien connues. Et donc qu’avec des équipes de concepteurs de niveau similaire, on peut prédire qu’ils arriveront tous peu ou prou à des résultats similaires.
Cette avancée d’Apple ne fait que confirmer ce que les spécialistes prédisent depuis longtemps.