Commentaires : NVIDIA présente Ray Tracing et DLSS sur ARM pour la première fois

Ok ta 20 ans dans l’informatique … en quoi tes 20 ans peuvent bien servir dans une technologie (DLSS et RTX) inventée y a à peine 2 ans et qui est toujours en développement … Oui tu vas me dire le Ray tracing existe depuis longtemps mais désolé le RTX n’est pas que du Ray Tracing comme on le connaissait avant faire du RT en temps réel c’est nouveau et c’est Nvidia qui l’a inventée.

HMMM … Ca me sert à gagner de l’argent auprès de clients que j’écoute au mieux de la politesse exigée par l’étiquette, ainsi qu’à les cadrer un peu dans leurs demandes ou leurs exigences.

« Ok ta 20 ans dans l’informatique … en quoi tes 20 ans peuvent bien servir dans une technologie (DLSS et RTX) inventée y a à pein e 2 ans et qui est toujours en développement … Oui tu vas me dire le Ray tracing existe depuis longtemps mais désolé le RTX n’est pas que du Ray Tracing comme on le connaissait avant faire du RT en temps réel c’est nouveau et c’est Nvidia qui l’a inventée. »

Je ne dis pas ça pour être vexant, mais je crois que tu te disperses en argumentaire, tu te braques et tu finis par parler tout seul.

2 « J'aime »

Ah ah ah, c’est vrai que Nvidia veut dire « envie », je l’avais oublié. Du coup on comprend mieux certaines choses. Entre autres que le qualificatif « moins cher » n’a pas obligatoirement la même signification pour eux que pour les autres.
Concernant la démo elle-même, si j’ai bien compris et qu’on décode un peu la débauche de termes techniques, c’est de la gestion d’effets de lumière, de l’IA en deep learning et du DLSS pour faire passer le tout. Que du déjà vu en somme si on enlève le processeur ARM.

1 « J'aime »

Et en plus, la demo ne se passe ’ a priori ’ pas dans un environnement windows. Je trouve ça bien cool, il serait intéressant de voir un bench type ashes of singularity pour voir où un top-end arm ( par exemple leur soc mediatek) se situe en « appels de méthodes/secondes » par rapport a un X86.

La démo tourne sur une distribution Arch Linux compilée pour ARM.

1 « J'aime »

Le rt temps réel n’est pas nouveau, c’est juste qu’on commence à avoir la puissance nécessaire pour le faire.

C’est peut être le moment ou arm est mûre pour se passer du x86. Intel a raté le train, j’espère que le futur passage au risk-v d’intel lui permettra de se raccrocher au dernier wagon pour revenir dans la course.

Ce qui montre que passer d’un OS à un autre, et d’une architecture à une autre, n’est pas si simple. Que cela engendre des coûts pour, finalement, arriver au même résultat. Le ROI est nul.

Comme son nom l’indique c’est une démo. Ça démontre que ça fonctionne, c’est tout.

1 « J'aime »

Euhhh c’est ce que je disais si on avait pas la puissance pour faire du RT Real Time alors ça n’existe pas et si Nvidia l’a fait car elle avait la puissance et la connaissance pour ça.

Avant Nvidia personne ne parlait de Ray Tracing … maintenant Intel et AMD veulent la même chose mais Nvidia reste toujours la meilleure car chez AMD le jeu devient injouable en activant le Ray Tracing ils l’ont juste fait pour dire qu’on a aussi le RT mais faut le gérer.

Intel n’a pas raté le train … elle détient toujours la majorité dans les ventes de CPUs toute catégorie confondue.

Et pour les gamers je vois pas l’intérêt de l’ARM pas avant des années et des années … tu t’imagines Cyberpunk 2077 tournait sous ARM ?? et quel studio s’attaquerait à développer une version ARM pour son jeu ? ça demanderait beaucoup d’investissements car on parle pas là juste de porter un soft sur une autre architecture mais carrément un jeu avec tous les problèmes qu’il y a en x86-64.

Sans parler de Denuvo, la solution anti-piratage la plus utilisée ces dernières années elle doit refaire tout son fonctionnement vu qu’elle déchiffre le contenu du jeu en temps réel pendant son fonctionnement (c’est pour ça que ça bouffe du CPU d’ailleurs) …

ARM est une architecture qui aime l’optimisation car on doit le dire un CPU ARM (genre une citadine) ne fait pas le poids face à un x86-64 (Muscle car) …

Beaucoup voit en ARM une solution basse consommation et tout … j’aimerais bien voir un processeur ARM égaler la puissance d’un CPU de 250 Watts en plein travail (non ne me parlez pas des processeurs d’Apple car les résultats sont biaisés pour moi comme tous les benchs sur les produits Apple).

Quand ARM sera généralisée là on comparera vu qu’il y aura de la matière.

Moi je dirais ARM c’est comme Stadia de Google, ça a de l’avenir mais actuellement ça vaut rien pour la majorité des consommateurs.

On aimerait surtout un Bench réglo qui ne favorise pas ARM juste pour dire voilà c’est puissant que le x86 … comme le cas d’Apple Silicon où on dit que M1 est plus puissant qu’un i9 :smiley: même en le comparant avec celui du desktop (250 Watts)

Euh… Une xbox 360… 2005, tu sais. Y a pas d’exploit à faire mieux xD
Non, non, faut pas s’emballer, les PC gamer ont encore bien dix ans devant eux encore.

C’est bien possible, mais proposer des machines de bureau et de jeux de moins de 3KG, c’est une niche destinée à prendre de l’importance. Pour te donner raison, notamment sur le raytracing comme gros consommateur de puissance, il faudra passer du faux ray tracing dit pathtracing qui map des models à vertex à des modèles intégralement générés point par point et effectivement cela risque de prendre encore pas mal d’années avant d’avoir des produits performants et accessibles.

Oui et non. Vulgairement, et je reconnais totalement que cette analyse est bancale/simpliste, t’as deux type de gamer : Console et PC. Le public PC ne prendra jamais une petite becane, à moins que ce soit une machine « en plus ». Le joueur console ne se pose pas de questions, lui, il ira là où y a le plus gros marketing. Et là, à part etre devin, difficile de se prononcer sur ce qui va se passer dans deux ou trois ans, mais pas sur que ça change du jour au lendemain.

Et pas besoin de jouer sur le ray tracing pour avoir des jeux qui demandent des configs de fou.
Pour le moment, les cartes graphiques (Meme moyen de gamme) deviennent de plus en plus grosses. Je pense que tant qu’on aura pas atteint un vrai seuil de photo réalisme (Et on est loin), tu auras toujours des grosses bécanes.

1 « J'aime »

Les gars vous pensez vraiment que l’évolution technologique vise réellement à baisser la consommation ?? Nvidia a explosé des records avec ses RTX 3000 … La RTX 3090 dépasse les 450 Watts sur certains modèles Customs.

Les RTX 4000 ça parlent de 500-600 Watts de consommation pour le Très haut de gamme … où est l’évolution avec une conso pareille :frowning:

La majorité des joueurs dans le monde joue déjà sur Smartphone /Switch (Linux, iOS, ARM). Ce qui manque à l’ARM, c’est de bon gros AAA.

Le fait que la démo soit présenté sur une Arch Linux est lourde de sens : C’est l’OS sur des Steam Deck (qui consommera 20 Watts… Avec de l’x86). On peut faire bien plus de chose avec un ARM et 20 Watts qu’avec de l’Intel. Ça ne fera peut-être pas disparaître l’x86, mais permettra bien des optimisations impossible à faire aujourd’hui, car limité par le modèle WinTel.

Tu mettras ton boitier dans ta carte graphique :slight_smile:

1 « J'aime »

Ils feront la taille des smartphones mais seront intégrés à l’écran et toute la connectique seras derrière l’écran ,bien sûr ils devront mettre suffisamment de prise usb ou mini usb. :disappointed_relieved: ouinnnn j’aimais bien mon gros boitier :rofl: .

Oh non, je pense que ce sera juste des petits boitiers, que tu peux connecter sur des gros écrans. Mais franchement, impossible de vraiment savoir quel forme ça aura :slight_smile: