Le 10 nm d’Intel date de 2019.
Apple utilise Tomb Raider pour faire sa promo… Donc pas étonnant d’utiliser ce jeu, mais ca reflète juste l’incompétence du commentateur.
De toutes facon on retrouve les memes perfs sur d’autres benchs et softs natifs.
Et c’est le jeu le plus demandant disponible sur OSX.
La journaliste ne dit pas que le M1 Ultra n’est pas performant, mais que la publicité qu’Apple en fait est mensongère …
Ce qui est mensonger c’est de laisser penser qu’une application est native alors qu’en réalité c’est émulé. Il n’y a rien de défendable là-dedans !
En même temps, en terme de performance brute, il est EVIDENT qu’un GPU haut de gamme, spécialisé, n’est pas comparable à un CPU plus généraliste … Le M1 Ultra n’est pas conçu pour ça …
Attention : mettre un mot en majuscule ne crédibilise en aucun ton argumentation. Tout ça peut se mesurer, et t’inquiètes pas ça va venir très vite.
Donc oui, une 3090, c’est un TDW de 400W … Mais soyons honnête, Apple ne peut pas rivaliser avec un GPU en terme de perf brute.
Non, déifier Nvidia et être coincé sur des idées reçues/dépassées n’est pas du tout « être honnête ».
Un M1 Ultra plus perf qu’une 3090, Apple s’est enlisé dans un mensonge alors qu’ils auraient pu dire qu’en terme de perf/consommation, le M1 est devant toutes les puces du marché. Et LA, oui, c’est clairement le cas. Mais pas en terme de perf pure
Pour dire qu’ils mentent il en faudrait déjà un début de preuve… Que tu n’as pas !
Montre-nous ces fameux bench (natifs hein…).
Ce qui veut dire que puisqu’Intel va faire graver des puces par TSMC c’est qu’ils ne veulent plus être n°1 ?
Apple utilise Tomb Raider pour faire sa promo…
Pour comparer entre des M1.
Donc pas étonnant d’utiliser ce jeu, mais ca reflète juste l’incompétence du commentateur.
Mauvaise fois et insulte pour défendre un jeu émulé, faut le faire.
De toutes facon on retrouve les memes perfs sur d’autres benchs et softs natifs.
Ben montre-nous ces fameux benchs natifs GPU moins bien…
Et c’est le jeu le plus demandant disponible sur OSX.
Ben non. Mais justement c’est bien de reconnaître que tu ne connais rien à MacOS.
C’est Apple qui s’est tiré une balle dans le pied. Les benchs ont été fait dans les mêmes conditions que ceux d’Apple dans leurs « argumentaires ».
C’est Apple qui a dit que leur M1 Ultra était plus perf qu’une 3090 … Personne d’autres … Et une 3090 c’est plus de 10800 shaders core à 1665Mhz … Comment tu vas rivaliser avec ça avec un CPU à architecture ARM ? … C’est pas possible !! Rien que la bande passante entre le GPU et la Vram est de presque 1Tb/s …
Maintenant, qu’un CPU fasse le taff d’un GPU … Hmmm … Entre Direct Connect et BaM de Nvidia/IBM, on tend justement au contraire … Un GPU gérant les i/o du CPU afin d’accélérer les traitements des donnés entre la ram et le stockage sans avoir à passer par le CPU !
Donc non, aujourd’hui, on tant à vouloir exploiter la puissance et l’architecture largement parallélisée et multithreadés des GPU au détriment du CPU.
Et c’est ça l’avenir … Et ça va aller de plus en plus dans les années à venir.
Ok, vous jouer sur les mots, Intel est fondeur mais ils passent par d’autre pour produire, es vous qui décidez qui est qui? Alors, ayez des infos pertinentes au lieux de chercher les virgules. PS: Apple passais par Samsung au tout début pour les iPhone, puis au fil du temps il as pris la décision d’être à la tête de conception. Apres tout un artiste l’est par son génie et non par par sa création. Apple est fondeur même si il ne produit pas pour l’instant il imagine seul ses puces.
@LeVendangeurMasque
Certes, mais si le titre de l’article avait été « le M1 tien ses promesses », le nombre de clic serait bien moins important, et globalement c’est la chose la plus importante dans l’histoire, avoir un titre d’article accrocheur, peut importe le protocole de test.
Non … Apple n’est pas fondeur puisqu’ils sont Fabless justement …
TSMC est un fondeur, Samsung est un fondeur, Intel l’est aussi …
AMD, Nvidia, Apple, Qualcom sont fabless et ne sont pas des fondeurs.
AMD était un fondeur jusqu’à la vente des fonderies à GlobalFounderies pour devenir fabless.
Pas grand chose…
Au repos la RTX 3090 consomme déjà 21W.
Déjà je pense que le comparatif soit pas équitable, ll fallait comparé un ordinateur Windows avec le même encombrement avec une RTX 3090 dessus car je ne sais pas si on réalise un peu ce que Apple a fait. Une petite bête plus petit qu’un NUC Intel pouvant être comparé à une tour classique non, le Mac studios consomme a peu près 120Watts et le comparé a une tour I9 12900K, CG RTX 3090 consomme en moyenne jusqu’à 560W pour une tour complète. Mais Apple tient la route pour moi c’est un exploit, sincèrement je ne pensé pas ca possible. Un si petit encombrement mais autant de puissance sur une consommation électrique normal. Et dans 7 ans il délivrera la même puissance brutes, pas le cas de bcp de tour de 2015 aujourd’hui ou j’ai l’impression qu’il sont tous vieux.
Pour mon humble avis. Avec des CG qui vont consomme plus de 400W a l’avenir, le mineur de BTC n’auront plus a nous envié, ce mac me tente un peu. Aujourd’hui c’est augmenter la consommation électrique pour plus de puissance chez NV et AMD mais Apple rebat les cartes choses qui me fait rire Apple n’es pas un fabricant de CG, CPU, RAM, SSD, ALIMENTATION. Ceux qui en fabrique sont pris de court en tout point. Sincèrement les grosses cartes qui consomme beaucoup moi déjà que j’en trouve pas donc ce mac a tout ce qu’il faut ou il faut
sauf que ca s’adresse a des « pro » et le pro a besoin de la puissance pas d’un bon rapport/perf mais pas suffisamment puissant.
Bref pas du cuda, pas d’open cl, metal ne marche pas avec les addons sur davinci,… Donc toujours pas pro, sans parler du passage en caisse pour certaines app pour avoir la vers compatible M1.
Si vous me proposez une config Apple plus performante ou aussi performante à un tarif moins cher (pas de quelques centimes, cela va de soi) je suis « peut-être » preneur.
Mauvaise fois et insulte pour défendre un jeu émulé, faut le faire.
Ah donc tu insultes et crie a l’insulte ! Le Don Quichote des temps modernes, rien d’étonnant venant du Vendangeur Masque
La n’etait pas la question, il existe plein d’autres benchmarks qui testent plein de trucs différents.
La c’etait juste pour verifier si ce PC pouvait être aussi performant que la meilleure carte graphique du marché
Meme remarque pour @Infinity205 . POINT FINAL
Commentaire digne de quelqu’un qui ne sait pas de quoi il parle. Digne d’un hater anti Apple qui prend pour argent comptant ce que dit ce test qui n’en ai enfaite pas un car très fortement biaisé et éloigné de la réalité. Tu sait ,faire un processeur ultra puissant,tout le monde sait faire mais faire un processeur ultra puissant qui consomme pratiquement rien ,la , c’est tout de suite très compliqué. Intel as énormément de retard . POINT FINAL.
Les macs ne sont pas fait pour le jv . Tout le monde sait ça…c’est la base. Le jour ou Intel sera capable de sortir des processeurs aussi puissant qu’Apple tout en consommant 2 voir 3 fois moins , on en reparleras. En attendant,Apple est devant rien que pour ça.
Apple n’est pas là pour jouer.
Il y a d’autres machines pour ça.
Absolument pas. Car tout était pensé pour faire réagir les gens et faire du buzz. Et ça as marché,la preuve. La finesse de gravure est d’ailleurs extrêmement importante aussi. Tout comme la consommation.
Dell , msi, Samsung entre autre.