Commentaires : La carte graphique Intel ARC A380 aurait des perfs comparables à celles d'une GTX 1650 SUPER

Les choses se précisent autour de la gamme de cartes graphiques
ARC Alchemist d’Intel et on se penche aujourd’hui sur l’un des « petits modèles ».

1000 infos sur ces cartes et rien sur la date de disponibilité … j’ai peur que ça soit un pétard mouillé !

Equivalent 1650 Super à 250€ MSRP ? Y’a un soucis là. Que les revendeurs la proposent à 250-300€ minimum, c’est attendu mais prix recommandé par Intel aussi élevé pour une carte d’entrée de gamme (mais vraiment, en dessous c’est même plus une carte our jouer), ce serait étonnant et décevant.

Je ne sais quoi en penser. Il faudrait faire un bench sur un jeu et le comparer à une 3080 (et autres modèles)

:thinking:

je garde ma 1050 ti (payée 180€ y’a…je sais même plus combien de temps) encore un moment ça c’est certain.

On a jamais autant parlé d’une carte qui n’existe pas encore crée par une société dont c’est pratiquement la première. Et si on attendait d’en avoir une en main pour la tester plutôt que de se gargariser de rumeur toutes les semaines.
Plus j’en entend plus je me dis que ce doit être un vrai pétard mouillé pour qu’on soit obligé de faire un tel buzz autour avant même d’en avoir une en main.
Quand il y en aura qui auront été testés et dont on connaîtra le prix réel (pas celui indiqué par la marque comme les RTX 3060 à 300 et quelques euros), à ce moment on pourra commencer à discuter.
Pour l’instant Intel vend du vent et ça souffle fort.

C’est très vraisemblable, car les iGPU à 96UE (contre 128 pour la A380) sont autour d’un geforce MX450 ou d’une 1050.
Celle a 256EU devrait être autour d’une 2060 super et la 512 EU autour d’une 3070, d’après l’efficacité de l’architecture Xe. En gros bien sur, on a pas les benches, mais on connait l’architecture.

Je n’ai jamais cru qu’Intel pourrait fournir une alternative crédible aux RTX 3080 et RX 6800 XT: Intel a trop de retard par rapport aux deux autres acteurs du segment. On dirait que j’étais encore en dessous de la vérité.

On verra bien, mais j’ai du mal à croire que Intel puisse en arriver là aussi vite, rivaliser avec l’expertise de Nvidia et AMD qui s’étend sur plusieurs décennies dans le domaine de la carte graphique très performante. neutre

Ou alors il y a eu des tractations et des accords, voire des échanges de technologie, dont nous ne sommes pas au courant. ^^

Ça doit être plutôt ça : « Ou alors il y a eu des tractations… »

Pas forcément. L’expertise passée (disons 10 ans et plus) n’est pas vraiment utile pour les produits actuels. Et Intel a recruté beaucoup d’ingés ayant un passé rendu 3D ET drivers ET low level. Plusieurs avaient d’ailleurs travaillé sur Larrabee. Ils ont les bonnes personnes pour savoir comment bien exécuter les commandes et shaders d’un jeu ou autre programme 3D, Intel a une longue expertise dans les unités d’exécution, les mémoires et système de cache (d’ailleurs les GPUs actuels ressemblent de plus en plus à des CPUs sur ce point).
Les jeux et autres progs 3D utilisant de plus en plus les compute shaders et de moins en moins le pipeline semi-fixe (où l’on place les vertex et pixel shaders que l’on veut, mais les autres étapes sont toujours figées) : les rendus par Vibisibility Buffer, Nanite etc. sont plus des programmes massivement distribués que du rendu 3D classique sur GPU.
L’expertise nécessaire change, pour Nvidia et AMD aussi.