Commentaires : NVIDIA présente Ray Tracing et DLSS sur ARM pour la première fois

La Game Developers Conference se tient – virtuellement – en ce moment et NVIDIA ne pouvait évidemment pas rester silencieux.

Probablement l’avenir au regard des couts, du linux, de l’arm, c est moins cher que x86 - microsoft.

tu dis ça comme si x86 était réservé à Microsoft :slight_smile: … c’est Microsoft qui s’est adapté au x86 pas le contraire … c’est les fabricants de processeurs qui créent les instructions pas le développeur de logiciel qui ne fait qu’adapter les softs à l’architecture.

En fait Windows ARM ça existe au cas où tu ne le savais pas.

5 « J'aime »

« est moins cher que »
Nvidia (l’envie) ne connaît pas cette expression. En tout cas sûrement pas ses actionnaires qui réclament leurs dividendes pour les retraites.

3 « J'aime »

Et bien si on doit se diriger vers des procos ARM pour faire le job à la place d’un proco X86 je ne demande qu’a voir . Mais si on y va c’est la mort des gros boitiers RIP. comment feras t’on pour mettre des CG de la mort qui tue et des refroidisseurs de taille.
Quelqu’un a une réponse???

Impressionnant cette vidéo. Ca m’a scotché ! :heart_eyes:

@cid1 : Tot ou tard, les PC feront théoriquement tous la taille d’un smartphone. Pour moi c’est qu’une question de temps.

C’est déjà le cas > Raspberry

1 « J'aime »

Oui enfin j’aurais du préciser TOUS les pc, pour le moment ma carte graphique prend un peu plus de place quand meme :wink:

Merci de me prendre pour un idiot, c’est toujours sympa, mon propos parle des couts et rien d’autre « au cas où tu ne le ‹ saurais › (conditionnel merci) pas »

Et moi dont ^^ Zont abusé NVidia sur la taille du GPU :smiley:

C’est déjà presque le cas sur les gpu de portable. En baissant la fréquence de 20% on divise par presque deux la conso, ça coute cher en watt les derniers MHz. Donc on aura plus de gros boitiers de 15kg vide ( j en ai un), on se contentera d une alim externe de 200W et d’un boitier ITX ainsi et surtout qu’une standardisation de GPU sur un format slot de type MXM. Perso je laisse certaines machines en H24, si la conso baisse tant mieux. Exemple de machine : HexadeciCore en ARM max tdp 20W a environ 4Ghz en 5 voir 3nm, gpu type RTX 4080 MaxQ pour environ 130-150W. On y est pas encore et il y aura toujours des amateurs de chrome, pompe a eau, led , gros … tres gros, blingbling etc… Mais ce sera une niche pour commencer, à voir si dans le temps ce standard coutera moins cher.

1 « J'aime »

Le coût du matériel c’est une chose. Quoi que, à performance équivalente est-ce qu’un ARM est vraiment moins cher qu’un x86 ?

Une fois que tu as ton PC moins cher sous ARM tu fait quoi avec ? Alors qu’on est tous sur x86 et que Linux est gratuit, ni les utilisateurs ni les éditeurs n’ont sauté les pas. Un changement d’architecture est plutôt un frein qu’un accélérateur, je trouve.

Loin de moi de te prendre pour un con mais j’ai juste répondu ton commentaire de manière objective … ne pas connaître quelque chose ne fait pas de toi un con sinon il y aurait 8 milliards de cons dans le monde car on ne peut pas connaître tout.

N.B : Je pense qu’on est pas ici pour traiter les gens de cons en tous cas je suis pas là pour ça j’informe de ce que je connais et je prends l’info qui m’intéresse point barre.

1 « J'aime »

En tous cas ARM n’a pas rendu les Macbook Air ou Pro encore moins les iMac plus abordables :smiley:

Tu m’a enlevé les mots de la bouche … On va faire quoi avec un PC sous ARM si y a pas le côté soft qui suit derrière ???

Et encore pour Apple les grosses entreprises peuvent toujours adapter leur soft mais reste qu’une bonne partie du catalogue x86-64 ne sera plus accessible enfin faut passer par l’émulateur Rosetta 2.

1 « J'aime »

Si je ne fais pas d erreurs, les arm n ont pas d instructions complexes couteuses en watt type AVX ( ca peut servir à traiter des matrices), hors le traitement de matrices se fait beaucoup sur GPU maintenant, du coup, tant que tu n as pas à cross compiler des milliers de lignes de codes, il n est pas certains que tu perçoives une grosse différence à l’utilisation. Il me semble également que la demo en vidéo ne tourne pas sous Windows.

Plus on avance, plus la différence entre les environnements ARM et x86-64 se réduit. Le delta de performance se réduit (voir M1, M1X et M2, cores X1 et X2, A78 et A710) et l’environnement logiciel aussi (Android sous Win11, Win10 et 11 pour ARM, librairies graphiques nVidia portées, macOS sous RISC et x86-64, etc.)
Cette convergence va continuer jusqu’au moment ou on pourra presque indifféremment avoir un CPU RISC (ARM ou Apple ou RISC-V) ou x86-64 et lancer les mêmes logiciels.
Avec une bonne couche d’émulation des deux côtés la majorité des app se lanceront.
Seuls quelques domaines haute performance (jeux, graphisme 3D, video 4K ou 8K, calcul scientifique, etc.) devront être compilés nativement et optimisés pour RISC ou x86-64 et justifieront pour certains d’être dans un environnement CPU plutôt qu’un autre. Et encore, dans ces cas là c’est souvent le GPU qui fait la différence, pas le CPU.

1 « J'aime »

Mon cœur de métier est l’info (depuis presque 20 ans), je ne parle que des couts et rien d’autre dans mon 1er post (au risque de me répéter).
Exposer une techno est éventuellement intéressant mais n’a nul besoin dans une réponse constructive à souligner quelque chose que tu crois que j’ignore (sans en avoir la moindre idée ), c’est une entrée en matière peu recommandable et préjudiciable.

C’est le cas, j’ai un ‹ vieux › Mate 20 pro et j’ai acheté un hub usb-c avec 2 hdmi rj45 et 6 usb, quand je branche mon tel dessus, mes deux écrans s allument, je passe automatiquement en mode bureau, avec clavier souris, c est presque comme un PC (sauf le multitâche un poil moins souple …), en plus le gpu est quasi aussi performant que celui d une xbox 360, tout ça pour environ 5W, limite le hub consomme plus que le tel ^^ En tout cas Geforce now tourne nikel dessus sans parler des jeux android.

@mamide message supprimé pour le motif message à caractère agressif.