Commentaires : Intel Arc : l'A350M à la peine dans les benchmarks, en deça de la 1050 Ti

Les perfs s’effondre avec toutes les cartes en activant le rt à moins d’avoir un monstre à plus de mille balles, ce que Intel explique dans sa présentation c’est qu’il faudrait que les développeurs implémentent plusieurs niveaux de qualité pour pouvoir profiter de cette techno sur des petits gpu, un peu comme le niveau de détails graphique pour la rastérisation, ce qui au final serait bénéfique pour toutes les cartes.

Lol

On sent bien que comme celle des processeurs, la technologie des CG se heurte à un mur pour la consommation.

Il n’y a que NVIDIA qui parvient à augmenter les performances de façon significative d’une génération sur l’autre, mais pour eux aussi la consommation augmente inexorablement. Et je ne parle pas du prix qui devient absurde pour des cartes réellement exploitées pour un ou deux jeux avant qu’elles ne deviennent obsolètes 18 mois plus tard. Par ailleurs, le raytracing matériel ne sert à RIEN, c’est juste marketing. Vous avez déjà vu une démo de jeu « avec / sans » où la version « sans » est significativement plus laide ?

Bref, le seul résultat de cette affaire c’est que les PC sont condamnés à perdre leur hégémonie sur les jeux vidéo au profit des consoles dont le prix est plus contenu et la durée de vie bien supérieure à une CG gaming. Il ne restera que des escrocs pour acheter des CG à 3000€ et les rentabiliser en leur faisant miner des cryptomonnaies dans des organismes publics (universités, administrations, etc.) histoire de ne pas payer la facture d’électricité. Ou alors pour faire de l’apprentissage en IA.

C’est vrai que plus j’en entend parler et plus ce ray tracing resemble à une Snake Oil, ou poudre de perlimpinpin pour les non-anglophones. On peut saluer la machine marketing de Nvidia pour avoir réussi à nous faire croire que sans le RT point de salut, alors qu’avec la rasterisation on peut tout à fait obtenir des résultats similaires avec moins de puissance de calcul. Et même si ce n’était pas le cas, dans le feu de l’action d’un jeu AAA, qui remarquerait vraiment la différence au point que ce soit game-changing.

C’est pourquoi c’est pour moi le comble du foutage de gueule que d’intégrer une technologie à l’intérêt déjà discutable dans une puce qui ne pourra jamais la supporter, faute de puissance de calcul.

1 « J'aime »

Le placement tarifaire, c’est bien le problème avec Intel…

@pecore

Étant moi-même utilisateur de Mac, je ne peux pas vraiment dire ce que le ray tracing apporte au monde du jeu vidéo. Par contre, je peux dire que sur du rendu graphique dans Blender, la technologie RTX fait vraiment des miracles, avec des performances multipliées par sept sur certains calculs de rendu (entre les moteurs Cycles et CycleX).

Alors c’est peut-être une utilisation de super niche (à ma connaissance il n’y a que Blender qui sache tirer parti des core RTX dans le monde du rendu 3D) mais ça reste quand même très impressionnant.

Par contre, je suis vraiment très étonné d’apprendre que l’activation de RT dans les jeux se faisait au détriment des performances globales. Pour moi c’était plutôt une technologie hardware incrémentale sur l’existant, et pas quelque chose de coûteux pour le calcul. Ça voudrait dire que l’activation des core RT signifie la désactivation ou le bridage d’autres cores de calcul ?

Intéressant en tout cas.

Quel est le prix ?