Commentaires : Une consommation de 600W pour la GeForce RTX 5090 ? Encore 400W pour la RTX 5080

Prévues pour 2025, les prochaines cartes graphiques NVIDIA seront-elles réellement plus efficaces que la génération actuelle ?

On va en avoir des connecteurs brûlés !

À une époque de sobriété énergétique, ça fait un peu scandaleux !
Bientôt il faudra sa petite centrale nucléaire, rien que pour jouer !

8 « J'aime »

Je ne suis pas expert, mais il faudrait peut être que nvidia reparte d’une page blanche avec un genre de nouvelle architecture (inspirée de ARM ?). Quand on voit que Apple arrive à faire des puces graphiques très performantes (alors oui on est loin d’une rtx 4090) mais on parle ici de puces fusionnées au cpu chez apple. Imaginez une grosse puce similaire uniquement GPU sur un pcb carte graphique… Ça devrait être aussi performant tout en consommant 5x moins…

2 « J'aime »

On arrive à la limite du silicium ; même le noeud 3nm de TSMC n’est pas terrible et seul la Pomme le paye.
L’Envie sera toujours en 4nm pour la série 5k. Plus d’i/s signifie plus de consommation donc rien de surprenant. Sans un changement technologique majeur (et pas cher) on peut dire que le mur est atteint. D’où l’invention des mises à l’échelles (FSR et DLSS) qui témoignent bien que les constructeurs en ont parfaitement conscience.

3 « J'aime »

Futur radiateur d’appoint!

Blâmer NVIDIA c’est une chose, mais faudrait aussi que les dev optimisent leur jeu, il y a sûrement de quoi gagner quelques W!

3 « J'aime »

A quand la carte graphique optique ?
La lumière va très vite et ne chauffe pas ! Il faudrait commencer par là… :kissing_heart:

Chez moi, je suis connecté à la fibre. C’est un fil de verre dans lequel passe de la lumière.
Pourquoi les modems et pas les CG !!
Ce serait un bon point de départ :+1:

J’ai un i9-13900K et une 4090, cette hiver j’ai pas allumer le chauffage (véridique) donc « futur »… non non le présent ! Par contre ma facture d’énergie n’a pas baissé.

1 « J'aime »

Parce que c’est autrement plus complexes de faire des calculs (donc générer un signal en fonction de plusieurs autres) avec de l’optique que de juste transmettre un signal (même dans un réseau fibre optique, il n’y a aucun « calcul » fait par les systèmes optiques dès qu’il y a des calculs à faire, par exemple pour vérifier l’intégrité ou pour router, le signal est d’abord converti en signal électrique).

Et les quantité de données en jeu n’ont également rien à voir. Même une « petite » RTX 4060, ça génère avec ses calculs 700 Gbit/s (22 milliards d’opérations 32 bits par seconde).

5 « J'aime »

Ta fibre optique ce sont de « bêtes » câbles, tu n’imagines même pas la densité des circuits électroniques sur une CG, on parle d’insérer 70 à 80 milliards de transistors sur plusieurs cm²

5 « J'aime »

Le problème c’est que Nvidia est intouchable (niveau perf, image de marque etc), donc ils n’ont aucun intérêt (financier) à se bouger le 'uc

1 « J'aime »

La récré sera bientôt terminée pour nvidia, les industriels de l’IA ont financé d’autres acteurs afin de sortir de ce monopole qui ne profite à personne…
Sinon la génération 3000 d’occas c’est parfait pour jouer :slight_smile:

A terme les puces feront probablement cette taille. Mais on est toujours dans une époque de courses à la puissance et tant qu’on voudra toujours plus de puissances, je ne vois pas pourquoi NVidia se contenterait de réduire la taille de ses puces.
Je sais bien qu’Apple a sorti des super CPU (Et la concurrence va suivre), mais pour le moment ça ne remplit pas TOUS les besoins.

2 « J'aime »

Je pense que NVIDIA et ceux qui achetent une 4090 ne s’en préoccupent pas réellement. Peut etre avec un joli discours de façade.
Et si ce n’était que du nucléaire (Et en passant, je sais que le tout nucléaire n’est pas envisageable/faisable), ce serait pas autant un probleme d’ailleurs :wink:

Chacun et libre d’acheter ou pas.
J’ai une 4080 et 14900ks, ideal pour les gens comme moi qui ont des besoins pour travailler et jouer.

La 4090 pour moi est plus pour les pro que les gamers

1 « J'aime »

Le graphen sera probablement utilisé petit à petit au coté de la silice, jusqu à devenir l intégralité d’une puce.

Effectivement, la photonique est intérssante sur le papier, mais comme dit plus haut, elle ne sera probablement pas utilisée dans des gros CPU ou GPU, trop complexe …
Par contre, la photonique à l’air très prométeuse pour les calculs quantiques ou l’éléctronique hybride analo-numérique des puces d’inférence ( plusieurs brevets chinois, dont certains déjà en phase semi industrielle dans des caluculateurs de niche).

pour le graphène un petit article, une fois de plus, des universitaires chinois :

2 « J'aime »

Et une fois de plus de la propagande pro-chinoise…tu croyais vraiment ne pas être reconnu ? paf

tu n’es pas obligé d’avoir le plus haut de gamme en permanence. D’après les relevés Steam hardware survey, quand on additionne toutes les cartes gtx/rtxXX60 et gtx/rtxXX60TI (laptop et desktop), on a déjà presque 50% des configurations. les rtxXX80 et rtxXX90 ne représentent même pas 10% des joueurs. Du coup, pourquoi s’inquiéter pour une carte qui est un fer de lance destiné uniquement à certains ?

C’est comme dire que VolksWagen c’est pourrit parce qu’ils vendent des voitures avec un W16 de 1500cv qui consomment jusqu’à 100l aux 100km et qui se vend environ 5 millions d’euros (qui a dit la Chiron ?) alors que la majorité des gens achètent un Golf 1.2 ou une Polo 1.2.

On est dans une société où on pense qu’on doit avoir toujours le plus récent et le plus performant de tout, même si ça n’est pas pertinent.

Mouais, ça fait déjà quelques années qu’IBM a fabriqué des transistors optiques (certes en labo) pour améliorer les perfs de switchs réseau (l’idée était de supprimer la double conversion optique/électrique) … mais, ce qu’il faut en retenir c’est qu’on sait faire des transistors optiques.

Maintenant faut trouver la procédure industrielle pour en faire à grande échelle. Ceci dit, toute l’architecture des machines devront être revues.