Commentaires : Après ARM, Apple lorgne maintenant l’architecture hautes performances RISC-V

Oh, le vilain Troll…

Voila

1 « J'aime »

Euh, quoi? Apple n’a aucun droit sur l’architecture RISC-V, et certainement pas celui d’empêcher le développement du noyau sur cette architecture. Après, il est probable qu’ils essaient d’empêcher de faire tourner un système Linux sur une machine Apple, mais ils le font déjà sur x86 et ARM.

Euh, what? Pour le marché station de travail, les x86 ont été moins cher que les RISC (PPC, SPARC et Cie) depuis bien longtemps à performances égales.
Quand aux RISC « très haut de gamme », ils battaient les x86 mais à quel coût énergétique: 500Mo de cache, des bus mémoire dans tous les sens … ou des limitations « cruelles » (CF les unités Cell de la PS3)
On peut critiquer le x86 qui est hors d’âge, mais dans les années 80 le x86 avaient des instructions pour simplifier les comparaisons de chaînes, le calcul sur décimaux par exemple qui étaient très utiles. Puis les compilateurs on pris le pas sur l’assembleur et les compilateurs ne savent pas utiliser ces instructions (déjà 4 registres, c’était beaucoup pour certains…coucou quickbasic et pascal qui ne bossent QUE avec AX!)

Dans les années 90, on y a cru, mais les instructions de calcul et la parallélisation virgule flottante/entier ont montré que le x86 (avec en plus l’athlon et sa force brute en math) démontaient les IBM PowerPC…

Actuellement, on voit bien qu’une ISA (ARM, RISC) ne suffit pas pour faire une archi performante, et que si RISC est basse conso, c’est surtout parce que les CPU actuels n’ont pas de cache, de pipeline, d’exécution dans le désordre…

Apple a démontré sa capacité à agrémenter ARM de tout ce qu’il faut pour pousser le CPU dans les performances les plus hautes en grand public. Ils peuvent le faire avec RISC-V.

Mais cela ne voudra pas dire que RISC-V en profitera! Cela restera la propriété d’Apple.

RISC-V n’est pas une révolution en termes de performances, en termes de conso d’énergie: c’est une révolution dans le sens où on peut commander des puces à la demande, sans payer de royalties chez certains fournisseurs (genre on demande un dual core, avec du cache, un contrôleur wifi: chaque option est une IP supplémentaire)

3 « J'aime »

Allez Tim, on jette tout à la poubelle et on change d’architecture. Pas grave pour les consommateurs.

En est-on vraiment sûr car, ne l’oublions pas, Apple est l’un des 3 fondateurs d’ARM…

Ni l’un ni l’autre. Cite moi un hardware microsoft que tu trouves bien.

PS : fait moi rire en me disant Surface. Ça va me faire la semaine

Euh what ?
certainement que t’as raison vu que j’ai rien compris.
Dans mon boulot de l’époque, on bossait sur des serveurs UNIX (2 PC, un client et un serveur) pour avoir une puissance de calcul folle pour pas cher. C’était des HP-UX.
Je ne me souviens que du fait que c’était des processeurs à 8 registres. Que les calculs qu’on demandait étaient réalisés beaucoup plus vite que sur les PC qu’on a testé.
L’époque où les processeurs X86 ont passés le gigahertz. Youhou :+1:

Chacun fera ce qu’il veux avec Risc-V. C’est le principe même du libre.
Il n’y aura peut-être rien du tout qui sortira des expérimentations ou alors ce sera la prochaine architecture.

Je ne suis pas devin, on verra bien

On ne doit pas parler du même Apple ni du même Microsoft. Microsoft dès Windows NT4 en avait fait une version pour processeur DEC Alpha. A l’époque lorsque Intel peinait à dépasser le 66 mhz, Alpha en était déjà à 300 mhz. Idem pour Windows serveur adapté au pur processeur 64 bit de Intel et au processeur HP. Aujourd’hui Windows tourne sur du x86 et du Arm. Microsoft s’adapte au marché des fondeurs. Leur boulot, leur cœur de métier est de fournir un OS qui fonctionne sur les processeurs dominants sur le marché. Apple, est hors du monde des serveurs, ils sont sur des machines bureautique. Ils n’ont pas le meilleur matos du monde. Gérez un parc informatique de Mac, vous comprendrez de quoi je parle. C’est le bureautique est un marché certes mais c’est un des pans de l’informatique. En plus comparé un éditeur et constructeur avec un éditeur logiciel. C’est d’une malhonnêteté intellectuelle… Pourquoi pas comparé Citroen avec Renault trucks

2 « J'aime »

RISC-V est surtout une architecture « moderne ». Et qui est extrêmement flexible qui plus est. C’est une architecture qui peut très bien être utilisé pour de l’IoT ou poussé dans des datacenters pour une puissance folle. Par exemple la puce XuanTie 910 peut atteindre 600 GFlops FP32 en configuration 16 core et le double en FP16.

Soit des perfs équivalente aux Ryzen 5000 actuels. Pour une architecture qui est très récente c’est excellent. La chine travaille aussi sur un processeur un peu plus « classique » (de type desktop) qui devrait sortir dans très peu temps. La puissance estimé serait similaire à un Core i9 10e gen.

Donc que Apple s’intéresse à RISC-V est parfaitement logique et même souhaitable ! Si ils investissent massivement la dedans, ils pourront, à termes, gérer tous les processeurs de tout leur produits de manière indépendante. Même plus besoin de licence ARM. Le RISC-V proposant également des solutions côtés GPU, là dessus aussi Apple pourra être complètement indépendant. Plus besoin de Nvidia ou de AMD.

1 « J'aime »

@Werehog Apple a bien été les premiers en 2016 a proposer un pc portable avec que des ports usb-c/tb3 ce qui a forcé une bascule vers ce port. Risque qu’aucun constructeur n’avait pris…

1 « J'aime »

Effectivement tu te trompes, bien d’autres constructeurs et machines ont mis à dispo de l’usb C systématiquement sur leur machine avant Apple, par contre lorsqu’ils y sont passé effectivement ils n’ont mis que de l’USB C là où les autres proposent encore du A.
Quand aux iPhones c’est un total non sens, ils poussent l’usb C partout sauf la où ils ont du lighting j’arrive pas à comprendre leur logique (enfin en dehors de la raison full commerciale sur les accessoires et la licence qui va bien pour les constructeurs d’accessoires…)

1 « J'aime »

Apple est juste en train de chercher à embaucher des pro du RISC V, de la à ce qu’il y ait des machines dessus…

Solidité du connecteur.
C’est la seule que je vois car l’usb-C en usb4 c’est le top of the pop

Ah bah on me lance, alors de ricochet en ricochet, je vais loin, très loin. Bon OK trop loin.

Qui fait quoi on s’en fou !! Pour un PC Portable, apple a ma préférence pour l’optimisation, la puissance juste ce qu’il faut et surtout çà dure dans le temps.
OK c’est cher, OK certains sont anti-tout donc impossible de discuter avec ces gens là.
Les comparaisons marché serveur, bureautique ou autre ne m’intéressent pas vraiment.

Je fais de la bureautique, un peu de code (vraiment peu). Le Macbook me suffit très largement et dure une bonne dizaine d’année (j’ai encore mon Core2Duo de 2011. La batterie me fait encore un petit 7h d’autonomie.

Pour plus puissant je reste sur de la machine Windows mais uniquement en PC fixe car les PC portable, c’est souvent fragile et pas terrible dans le temps (mon ressenti et expérience)

Au boulot on garde de très vieux PC pour la programmation des automates et robots mais là on parle 4K€ voir 5K€ le PC portable. On ne joue pas dans la catégorie grand public.

Pour le marché auto, il y a bien des gens qui osent comparer Dacia avec Peugeot. Alors tout est permis apparemment.

Winnt4 sur x86, alpha, ppc, Mips pour être exact. Il devait être de même pour win2000 mais finalement annulé et seul x86 fut gardé (il faut mettre la main sur des bêtas de win2000 pour l’installer ailleurs que sur x86)

Après complètement d’accord, les cpu RISC menaient la danse dans les stations de travail et serveur. J’ai eu l’occasion de travailler sur sgi/Mips ou un coup 175Mhz faisait mieux qu’un pentium 200.
Par contre, je sais pas pour la concurrence, mais les stations silicon graphics coûtaient deux bras.

HP-UX … De l’itanium peut-être? L’Itanium était excellent pour des calculs « prédictibles ». Tout « choix » (if/then/else) lui imposait une pénalité. Donc très bon en calcul et BDD et pas bon en serveur web par exemple.
Il a peut-être été « bradé » à un moment, ça a été un échec commercial. Et dans ce domaine (HP-UX et OpenVMS), HP avait tendance brader le matériel mais se rattraper sur les coût de support et licence → au final, c’était cher.

Pareil, SGI, DEC alpha (machines extraordinaires), HP3000, HP9000. C’était puissant mais avait un rapport puissance/prix infiniment moins bon. Les machines coutaient 4x le prix d’un gros PC pour ne donner qu’au mieux 2x la puissance.

2 « J'aime »

XuanTie 900: pipeline 12 stages et exécution dans le désordre … Ce qui le ramène à la complexité d’un Apple M1, ou d’un AMD. Il va consommer un paquet aussi, il n’y a pas de révolution de ce côté.
Si vous chercher une évolution intéressante actuellement, regardez ce qu’a fait IBM au niveau du cache en fusionnant L2 dédié et L3 réparti - une bonne simplification tout en améliorant la latence et en réduisant la conso et l’échauffement. Et ça s’applique à tout CPU, x86, ARM, Risc-V.

Le jeu d’instruction (entre ARM et RISC-V) n’a que peu d’importance. Le x86 pèse car il est complexe à décoder.

Et Apple est déjà indépendant pour le GPU du M1 il me semble.

Les Windows Phone. Le Surface book.

Par contre niveau fiabilité et stabilité, c’était un autre monde. Et les unix étaient très robuste par rapport au monde pc. Des uptime de folie