Commentaires : Pourquoi Apple vend toujours des variantes Intel de ses ordinateurs équipés du processeur M1

Mais pourquoi me parle tu des datas center ? C’était pas mon sujet. Après vu le marché, il est probable que Mac s’y mette un jour.
Pour ce qui est l’iPad… bah… tu peux connecter un clavier et des peripheriques dessus hein… et c’est souvent plus pratique qu’un latptop pour un usage non pro.

Comme tous les benchmark, ça donne juste une idée des performances. Pour comparer il faut bien des référentiels.

Je sais qu’il existe certains jeux sur Mac

Pour le Mac Mini qui se branche de toute façon sur une prise de courant, l apport ARM risque d être bcp moins flagrant qu une machine portable.

Un ordinateur ne se limite plus à un CPU aujourd hui, il faut prendre en compte la RAM, le GPU, et là dessus, la puce M1 n à rien d extraordinaire. En terme de puissance GPU, on est très loin d une RTX NVidia et pour la RAM, 16 Go Max, c’est bien mais pas non plus extraordinaire pour du montage vidéo ou de la 3D.

je crois que tu es dans la passé, on ne peut plus faire des machines avec une architecture dépassée. Sais-tu que le proco passe son temps à attendre les données qui viennent de la mémoire. En intégrant tout sur un soc on gagne en performance pour le proco !

La réparabilité c’est pour les PCs, lol ! Moi, ça fait 15 ans que je suis sur Mac, je ne sais pas ce que c’est que faire réparer un mac ! LOL

1 « J'aime »

« Sais-tu que le proco passe son temps à attendre les données qui viennent de la mémoire »
Ça c’était 100% vrai dans les années 80-90. Aujourd’hui ça dépend de la nature du code qu’ils exécutent. Car les CPUs passent aussi leur temps à faire toutes sortes de chargements spéculatifs de la RAM vers leurs caches pour mitiger cela (dans une certaine mesure). Et avec SMT c’est encore mieux: même si un thread est bloqué sur une lecture mémoire, le CPU exécutera des instructions d’un autre thread en attendant (et dans ce cas la perte de performances sera quasiment nulle).

Mais globalement tu as raison: c’est clairement mieux si on peut éviter ce gaspillage de bande passante (et d’énergie) en rapprochant la RAM du CPU. Et ça augmentera effectivement les performances (sauf sur les applications dont le « working set » tenait déjà dans le cache L1/2/3).

Et puis on l’a vu ces dernières années: ces chargements (et autres actions) spéculatifs posent parfois problème en termes de sécurité et d’isolation entre les processus… surtout chez Intel.

Quels sont tes arguments ? Car je sais pas qui tu es mais Apple est l’un des plus grosses boite du monde (la plus grosse même). Ils peuvent effectivement se planter sur leurs prévision, mais pas sur toute la démarche.

Avance tes arguments car la c’est du vent.

Ils peuvent effectivement se planter sur leurs prévision, mais pas sur toute la démarche. => Je n’ai pas dit le contraire (En fait, je dis meme le contraire). Je parle de l’utilisateur final, pas de la pomme.
La force d’apple c’est d’enfermer ses utilisateurs dans leurs écosysteme… c’est aussi leur faiblesse… Et là on parle d’enfermer un peu plus l’utilisateur final dans le systeme Apple.

Un conseil, si mon propos est du vent n’y répond pas. Sachant que d’autres ont déjà répondus (Avec des arguments eux)

Parce que toi tu fais du montage vidéo et de la 3D avec un mac mini (mini pas maxi) ou un macbook air ? Tu parles juste pour parler en fait ! Attends de voir les puces qu’Apple est en train de concocter pour les iMacs et Macs Pro, tu vas manger ton chapeau ! LOL

Des applis dont le working set tient dans le cache, ce ne doit pas être EXCEL par exemple qui manipule des tableaux de 1 million de lignes ! LOL

Ce doit pour ça que Maxon a annoncé que Cinema4D R23 était prêt pour l architecture M1 d ici quelques jours…

Le temps que le Mac Pro M1 sorte en fait. Lol

Tu sais à quoi ça sert Cinéma 4D au fait ?

Je me moque de tes conseils. Par contre si tu racontes n’importe quoi il faut te corriger car la aussi c’est vide de sens.

« Je leur souhaite un gros bide » -> « je pense que ça risque de marcher », comment dire tout et son contraire.

« Autant ARM à du sens sur smartphone, autant l’archi X86_64 est parfaite pour PC/Mac » -> pourquoi ? comment ? Pour lancer une app qui au bas niveau est traitée via de l’ARM a moins de sens qu’en x86 ? Qu’est ce qui fait que quand tu appuis sur ton bouton et que l’action se passe bien ça change pour l’utilisateur ?

« Le passage à ARM va juste provoquer un retour arrière inutile pour l’utilisateur final » -> Quel retour ? qu’est ce qui va faire que c’est moins bien ?

Des affirmations sans aucune construction logique ni fait derrière.

Bref… du vent.

Tu ne sais juste pas distinguer un souhait d’un avis, c’est pas grave.

« Je me moque de tes conseils. Par contre si tu racontes n’importe quoi il faut te corriger car la aussi c’est vide de sens. » => Bravo, tu rend service à la société. Mais tu sais, on est sur clubic dans la section commentaire. Je ne suis pas en train de rédiger un article.

« pourquoi ? comment ? Pour lancer une app qui au bas niveau est traitée via de l’ARM a moins de sens qu’en x86 ? Qu’est ce qui fait que quand tu appuis sur ton bouton et que l’action se passe bien ça change pour l’utilisateur ? » => Je reconnais volontiers que la différence entre ARM et X86, c’est considérablement réduite ces dernières années. Là dessus, je veux bien le reconnaitre. Maintenant, il y a tout un ecosytème qui fonctionne très bien actuellement. Si tu penses que switcher tout un ecosystème de l’un à l’autre, c’est bien, c’est ton avis. Ce n’est pas le mien. X86-64 reste actuellement plus interessant pour des grosses bécanes. Je m’interroge principalement sur un volonté de passer tout Apple sur du ARM d’ici deux ans.

« Le passage à ARM va juste provoquer un retour arrière inutile pour l’utilisateur final " => Eh bien, écoute, Apple va juste enfermer un peu plus ses utilisateurs dans son écosysteme. Ca m’etonnerait pas que demain, on puisse meme plus utiliser des apps en dehors du store d’apple.

« Bref… du vent. » => Si tu t’imagines que parler de manière condescendante, va rendre le débat plus utile, je pense que tu te fourres une poutre dans l’oeil.