Commentaires : Intel tenté d'abandonner les cartes graphiques ? La folle rumeur fermement démentie

Peu avant l’ouverture du CES 2025, une rumeur poussait Intel vers la sortie du marché de la carte graphique dédiée. La firme a mis les points sur les « i ».

Vu les parts de marché, on ne peut pas vraiment dire qu’il ai vraiment commencé.
J’ai plus l’impression que les premiers modeles sortis en petits volumes ont fait des acquéreurs des beta testeurs.
Même leurs IGPU sont à la ramasse comparé à l’équivalent AMD et ARM

1 « J'aime »

Même leurs IGPU sont à la ramasse comparé à l’équivalent AMD et ARM.

Au contraire sur la dernière gen mobile Intel a clairement repris le lead en perfs pures et en perf/conso… et c’est très bien, AMD s’est endormis trop lgtps à faire le minimum syndical… ARM n’en parlons pas ils sont complément largués (bon c’est une gen 1…)

On verra comment ça va tourner mais je ne pense pas qu’Intel va lâcher le marché des CG dédiées, en effet on peut les voir comme un sous-produit de leurs APUs et pas l’inverse… Il n’est plus possible en 2024 de proposer des APU à la ramasse sur leur partie graphique donc Intel n’a pas le choix que d’y conserver bcp de ressources et d’essayer de rentabiliser un peu l’effort sur les CG dédiées milieu de gamme

Edit: Désolé pour le texte en gras je n’arrive pas à m’en débarrasser

2 « J'aime »

Corrigé

Intel aurait du signé avec NVidia pour simplement faire des forks RTX comme les autres compagnies. Ils sont bons pour faire des cartes graphique de serveur, mais pas de gagming ni IA

Non, tout dépend de quels iGPU on parle. Celui des AMD 9000 par exemple, est totalement voué à afficher le bureau de Windows et rien de plus.
Par contre, les dernière APU Intel qui comportent des coeurs ARC sont totalement au niveau des AMD.
Mais bon, là où je trouve qu’ils anticipent trop, c’est de penser que le marché de demain se ferait avec moins de cartes graphiques : pour le moment, les meilleurs APU égalent tout juste une GTX 1650 pour celles ayant les TDP les plus élevés, ce qui, je trouve , reste quand même cantonné à un usage multimedia et jeux très légers.
Quand on voit les performances d’un GPU à 250 euros couplé avec un CPU à 100 euros , pour le moment, on est loin devant tout ça.

Non, leurs iGPU tabassent les ARM et font quasi jeu égal avec les AMD. Sauf qu’ils sont plus imprévisible: là ou AMD sort des perfs assez lisses, Intel est parfois en retrait parfois en avance…

1 « J'aime »

Je trouve que Intel a bien redoré son blason avec les GPU discrets. Ils ne sont pas à la ramasse (sauf niveau conso)

1 « J'aime »

Je ne suis pas d’accord. Déjà parce qu’il y a plusieurs segments de gaming, notamment avec les trucs genre steam deck. Et si je ne comprends pas l’intérêt du produit, il est là, et NVidia n’a pas encore de produit positionné. Intel en a positionné un, il n’est pas top (mais pas mal non plus), et les nouvelles versions sont prometteuses (les Ultra 2xx).
Par ailleurs, NVidia et l’IA, ce n’est pas tout rose non plus. Leurs cartes sont généralistes (apprentissage et inférence), du coup les concurrents (Intel, AMD, ARM et plus d’autres) proposent des cartes uniquement inférence (donc pour exécuter) qui sont jusqu’à 10x moins énergivores.
Le virage commence: maintenant le défi c’est de faire tourner les inférences, moins de lancer l’apprentissage.
Et Intel peaufine encore ses librairies IA: en activant (enfin) les calculs AVX (merci AMD d’avoir montré que ça pouvait servir et fonctionner), les CPU arrivent à faire du x10 en perfs d’apprentissage - donc si on fait parfois de l’apprentissage, sur des durées courtes (comme pour le ragging), le CPU peut suffir …

Reste le raytracing, pour lequel NVidia reste maître - mais sans avoir totalement convaincu, n’ayant pas de « killer app » qui aurait montré que c’était un argument majeur.

Actuellement, la bataille se situe aussi au niveau des technos de prédiction de trame, histoire d’avancer sur le streaming de JV (et de films d’ailleurs: il y a des papiers sur l’utilisation de formats de compression qui prennent en compte la prédiction de trame côté client et la paramètrent pour faire de la compression encore plus avancée - genre s’appuyer dessus pour envoyer des morceaux de film à 12 im/s).

Les cartes gamings version 700€ la carte, je ne suis pas sûr que ce soit le gros du marché pour quiconque conçoit des puces IA/graphique/calcul généraliste