Commentaires : Intel Arc A750 et A770 : faut-il les acheter ? Que disent les premiers tests?

À défaut de pouvoir, tout de suite, vous en proposer le test, nous faisons le point sur la situation autour des cartes Intel Arc A750 et A770.

1 « J'aime »

Sans la possibilité d’activer le « ReBAR », c’est mort. Avec, c’st finalement franchement pas mal du tout. Intel a une carte à jouer et on va peut-être enfin avoir un troisième vrai concurent.

1 « J'aime »

On va attendre les vrai tests, surtout quand tu lis " … rejoint par les deux Youtubers", là … sa fait peur.

1 « J'aime »

Il est prévu de vous les proposer sur Clubic, mais nous ne citons pas n’importe quels tests ici : ceux de TechPowerUp sont particulièrement complets notamment.

C’est pas si mal finalement ! Bon l’écart risque de se creuser un peu plus avec l’arrivée des RTX 4XXX mais pour un premier jet je m’attendais à bien pire.

1 « J'aime »

Les 2 dernières années ont été quelque peu … Désastreuse et chaotique mais le fait est que Intel a réussi son pari ! Une architecture certes jeune, mais qui est néanmoins prometteuse !! Et j’espère VRAIMENT qu’Intel continuera sur cette voie !!

2 « J'aime »

Techpowerup et Guru3d sont clairement des références dans les sites anglosaxons ! Et c’est malheureusement ce genre de choses qui nous manque ici … Des articles nombreux, rédigés, commentés et qui n’ont pas peur d’aller dans les détails !

Alleeeer Clubic … !!! Vous le faisiez il y a 15 ans !!! Leeeeets go !!! Stop faire des news sur la géopolitique et go nous faire des articles sur du hard et software ! Des reviews de periphs, de claviers, d’écran, etc !

1 « J'aime »

Digital Foundry sinon a testé aussi les cartes.

Intel arrive à faire quelque chose de correct sur le secteur de l’entrée et du milieu de gamme, qui l’eut cru ?
Mais à des prix assez proche de Nvidia et encore plus d’AMD, pas certain que beaucoup se risquerons sur du matériel tout nouveau aux drivers encore mal finis, à part les fans d’Intel et encore. Je sais que moi je ne m’y risquerai pas pour économiser quelques dizaines d’euros.

Pour vraiment attaquer le marché, Intel devrait être plus agressif sur les prix. Malgré tout, un (vrai) troisième acteur reste une bonne nouvelle pour les clients.

Slt !! J’ai vu les test/bench > A770 vs 3060 et A770 vs 3060 vs RX6600 . Et honnêtement les performances sont très similaire . Parfois qqes fps en plus pour la A770 disons sur 60% des jeux tester et sur les 40% c’est un peu la catastrophe sans être mauvais. Gros point négatif en plein jeux c’est environ 70° pour la A770 alors qu’avec la 3060 on obtiens 55° max . Et celle qui consomme le moin d’énergie c’est la carte d’AMD (et chauffe peu aussi) . Exemple quand on est à 135W sur la 770 on est plutôt sur du 100W sur la RX6600. Les test étaient fait sur du full Intel (donc CPU Intel inclus) ce qui permet d’assurer un grand nombre de pilote déjà compatible avec la A770 . Si le prix est similaire aux RTX3060 je ne suis pas sûr que cela face baisser les prix … Alors que c’est le but d’avoir un 3ieme concurrent de faire baisser les prix . De plus 12Gb de la 3060 ou 16Gb de la A770 on vois pas la différence hormis le fait que dans les jeux la carte d’Intel à tendance à utiliser 1Gb de VRAM en plus , exemple quand la 3060 utilise 3.6Gb de VRAM , Intel utilise plutôt 4.6Gb . Et vue le peu de différence de performance c’est a ce demander pourquoi . En tout cas pour la majorité des jeux c’est suffisant pour du 1440p et ultra suffisant en 1080p . La chauffe du GPU Intel m’inquiète mais on verra bien par la suite avec peut-être des modèles custom plus intéressant au niveau du refroidissement.

PS: Pour un simple et vieux jeux comme CS GO la carte Intel perd plus de 100fps comparer aux autres . Exemple : 435fps pour la RTX3060 et tout juste 300fps pour l’A770 . Mais bon cela ne veut pas dire que c’est mauvais , espérons juste que ce sera corriger rapidement car la cible de ce genre de carte ce sont pas forcément les hardcore gamer ou les gamers qui aiment juste la beauté d’un jeu. Ils joueront plutot à fortnite , CS GO , LoL , WoW , Diablo bref des jeux pas ultra gourmand mais quand on vois la chute de fps sur CS GO y’a de quoi s’inquiéter.

1 « J'aime »

Si Intel s’aligne sur la concurrence alors leurs cartes n’auront aucuns intérêt. Je suis d’accord il faut qu’ils baissent leur prix au max quitte à vendre à perte les 6 premiers mois . Mais c’est pas trop la mentalité d’Intel donc on verra bien .
Mais n’oublions pas qu’intel on encore des usines donc si ils le veulent vraiment ils peuvent baisser les prix . Ils ont pas eu le choix sur les CPU grâce à AMD . Donc en théorie si ils veulent faire vraiment concurrence à AMD et NVIDIA ils ont tout intérêt à faire des prix bien plus accessible. Comme les faisait d’ailleurs AMD avant les RX6000.

1 « J'aime »

Et comme dans chaque (ou quasi) article plebiscitant ces nouveaux GPU de chez Intel on oublie (ou plutôt on omet…) de vous dire qu’elles ne sont équipées que d’environ 500 processeurs de flux … Soit, en gros, l’équivalent d’une GTX 1660 4 GO de 2017… Alors OK elles sont équipées d’un GPU à 2 ghz et 2,3 ghz respectivement, mais pareil on parle en mode boost et non en fréquence base évidemment… Néanmoins on bat les cadences des RTX 3000, et c’est à noter. Tout comme la GDDR6 cadencée à 16000 et 17500 mhz, où pareil on bat les RTX 3000 (mais pas les versions TI par contre, équipées avec de la GDDR6x à 19000 mhz…). Mais quoiqu’il en soit vous ne risquerez pas de pouvoir gamer en 4K, voire pas même en 2K, avec ces fameuses nouvelles cartes made in Intel… Et pour ce qui est de la création je parierais aussi sur un fort de grès d’obsolscence… Voyant comment mon actuelle GTX 1060 TI réagit à certains travaux sur Photoshop et autres avec ces 372 processeurs de flux, je ne donnerais pas cher de l’ Arc A550 et ses 448 proc. de flux… Globalement je dirais donc qu’en réalité elles valent plutôt leur prix en fait, sans plus. Mais c’est déjà bien en soit. Et ça doit faire le taf j’imagine. Par contre il faudra plus pour concurrencer plus sérieusement les AMD et NVidia… Evident…

J’ai voulu apporter des précisions, mais je les enlève de ce msg, qui par la même devient inutile…mais je ne peux pas le supprimer… ^^