Commentaires : Intel Arc est meilleur que l'Apple M1 Max en décodage vidéo

À chaque nouvelle puce, Apple promet des performances jamais égalées, mais il semblerait qu’Intel ait tenu le pari pour le décodage vidéo !

1 « J'aime »

La puce M1, je rigole.

1 « J'aime »

Pouvez vous argumenter votre commentaire ? Su ce site, vous avez systématiquement des commentaires primaires dès que le mot « Apple » est utilisé et ceci sans aucune explication.

1 « J'aime »

@ Lucas Guillemot

Vous comparez un SOC avec une carte dédiée. Faut peut-être arrêter le comparatif sans queue ni tête.

La puce M1 equipe des ordinateurs portables et de bureau. Le choix de ce chip unique est celui d’Apple et non du contributeur de cet article. Je trouve qu’il est tout a fait normal de comparer le M1 avec les solutions des autres fabriquants CPU et GPU, d’autant plus par rapport aux prix.

1 « J'aime »

Il faut noter que la comparaison se fait avec une puce Apple qui a 1 an sur une technologie d’il y a 3 ans.

Il faudrait comparer avec le M2.

Très bon M1 sur mon Mac mini. Je continue de mettre 3x moins de temps en encodage vidéo par rapport à un Ryzen.

J’ai un axe de comm’ tout trouvé pour Intel :

"L’intel Arc™ est plus performant en jeu vidéo* que ses concurrents !

*Jeu vidéo en streaming cloud ou local uniquement."

Sur le M2 d’un ordinateur portable, l’encodage video est limite a 8 secondes au maximum de sa vitesse.

Le choix d’une puce unique sur ses ordinateurs est le choix (de marge financiere) d’Apple, rien ne les empeche d’ajouter un GPU Intel ou AMD, ou meme produit par eux-meme comme le font les autres constructeurs depuis tres longtemps. Aux choix du consommateur d’utiliser la partie graphique du CPU ou le GPU en fonction de son utilisation. A 1500 Euros et plus, le fait de se faire depsser par un « petite » Intel Arc, c’est marrant, je rigole…de la naivete des clients qui ont acheter ce genre de materiel. Mon commentaires precedent n’est pas "primaire’ comme vous le dites car il n’enfreint en rien les regles elementaire de bienseance.

1 « J'aime »

Et cette carte vidéo sur un portable ? on fait comment ? Car le M1 est portable lui, avec une autonomie hallucinante… donc comparatif un peu nase…

A quand l’article sur le serveur qui fout la raclée au M1 ?

Ceci dit, il faut que la concurrence se réveille du côté pc, c’est clair !

Heureusement, car le M1 utilise le gpu pour encoder. Le ryzen est un cpu même si il a un igpu, pour de l encodage on utilise pas un cpu qui va forcément être lent. Mais un gpu et la c est pas que 3 fois plus rapide que le ryzen mais bien plus

Bref il faut comparer les même choses

Oh la carte Intel fait mieux que tous les SOC Samsung ! Les technologies sont différentes, tellement éloignées.

Un peu de bon sens.

Pourquoi un laptop avec une GTX 3060 fera mieux et le cuda est prit en charge

Et sinon j’ ai une tablette plus de 10h d autonomie et une bonne connection 4g ou un bon wifi pour du stream hd full HD je la transforme en station de travail avec mon vieux i54460 gtx970 ( attend la chute des prix pour changer) même dans un autre pays le bureau déporté c est cool aussi.
Même mon smartphone entré de gamme 2020 je fais tourner des soft comme DaVinci resolve, des jeux comme bf5 ou Forza 4

Avez-vous testé?
Moi oui !

La qualité en encodage sur une carte graphique est moins bonne que par un CPU d’où sa vitesse.

Mais dans les faits, un CPU est meilleur en encodage de qualité et plus rapide à ce niveau qu’une carte graphique.

On parle d’ordinateur grand public, portable ou de bureau, la puce M1 ou les solutions des autres fabriquants. Le multimedia et les jeux video qui exploitent la partie graphique d’un ordinateur sont des applications grand public. Etant donne le prix du materiel d’Apple, c’est tout a fait normal qu’il soit compare avec d’autres solutions. Je ne vois pas ou est le non sens. A sa sortie le M1 a bien ete compare a l’Intel I9 9900k. Le non sens c’est plutot que des personnes achetant un M1 ou M2 protable, pensent qu’elles achetent du materiel destine aux professionnels de certaines branches d’activites pouvant de dispenser d’une puissance graphique decente.

1 « J'aime »

me réduire à naïf est choquant…
Je ne suis pas un grand connaisseur technophile, mais en faisant une petite recherche de l’arc 380, au vu sa taille et de ses ventilateurs, je ne la vois pas rentrer dans mon MacBook Pro 14’. C’est ça l’avantage du M1.
D’autre part, quid de la consommation de cette carte?

Votre avis, tout comme cet article n’est malheureusement pas du tout argumenté. D’une part l’auteur copie le communiqué de Intel sans même le critiquer (positivement ou négativement), ce qui n’est pas du journalisme, D’autre part, vous concluez sans même remettre les données en perspective. (je pense que votre avis est plutôt basé sur un aprioris négatif d’Apple qui déforme toute les informations liées à Apple)

1 « J'aime »

Personne n’a parle de faire rentrer une carte graphique d’ordinateur de bureau dans un ordinateur portable. Les fabricants proposent une version de leur carte adapte a la puissance et la taille d’un ordinateur portable. Apres cette version arc 380 est repute pour sa faiblesse technique, si un jour Intel ssort une gamme de cartes pour portable, uelle n’en sera que certainement plus puissante ou a egalite.

La puce M1 equipe aussi des ordinateurs de bureau donc la comparaison est tres valable.

Ce n’est pas parce que les ordinateurs d’Apple ont des performances graphiques mediocres en comparaison des autres marques au meme prix qu’il faut penser que je deforme la realite des informations liees a cette marque. Et concernant l’autonomie de la batterie, lisez le dernier test Clubic sur le M2 qui dit "excellente autonomie en surf internet et multimedia leger’ Des taches qui son normalement reserve a des ordinateur portable de faible prix.

1 « J'aime »

Comme d’hab, Truc est meilleur que Machin sur l’action Z par vent d’ouest quand le format du fichier est en MPOV avec un contenu d’une taille exacte de 183,2Mo.

Ce que ça montre surtout, c’est que M1 a frappé très fort pour un nouvel entrant, mais qu’ils n’avaient finalement pas tant d’avance que ce ne pouvait en dire la presse à l’époque (ou Apple eux-même), si l’on exclue le sujet de la performance énergétique (qui n’est franchement pas toujours un critère de choix sur un ordi à usage pro).

Pour moi, Apple bénéficie depuis longtemps de la primeur sur les finesses de gravure, grâce à leurs volumes de production faible (jamais Intel n’aurait pu passer toute sa CPU et assurer ses volumes de livraisons sur la même finesse…). Ils vont maintenant continuer d’en profiter un peu (jusqu’à ce que les volumes ne le permettent plus) et surtout tirer de meilleures marges et baisser les coûts de R&D grâce à leur choix d’architecture.

On le voit bien avec M2 qui est pas si transcendant par rapport au « choc » M1, on verra ce que donne M2 Max. Cela étant, en vrai c’est plutôt un rythme normal dans les générations de CPU/GPU/SoC. Apple n’est pas magicien et on est plus dans les années 90. Il y a quelques évolutions plus marquées, mais elles sont principalement ciblées sur des types de tâches beaucoup trop précises pour vraiment parler d’une révolution.

Mais comme tout bon service marketing, ce sont celles qu’on valorise dans les communiqués de presse…

Ce qui est logique, les Ryzen n’ont généralement pas de eGPU, et un CPU n’est pas fait pour ça.

J’ai un M1 pro 16" qui est le format idéal pour mon usage (surface d’affichage) tout en offrant un très bon ratio autonomie/performance.

Si un jour je décide de mettre du budget dans le pc fixe sur lequel je joue de temps à autre, j’inclurai les produits Arc à mon comparatif et si une de ces cartes sort du lot par rapport à mes critères tant mieux pour Intel… Sinon tant pis.

J’ai du mal à comprendre certains commentaires… chacun peut trouver chaussure à son pied selon ses propres critères et indépendamment du nom du fabricant.
Les produits écartés n’en deviennent pas pour autant des produits ridicules servant on ne sait trop comment de nourriture à troll.