Commentaires : NVIDIA : une fuite majeure détaille l'ensemble de la future gamme Ada Lovelace

La nouvelle génération de cartes graphiques NVIDIA n’est toutefois pas attendue avant, au mieux, septembre 2022.

1 « J'aime »

Merci Cluclu pour ce court article qui nous laisse entrevoir ce que sera la prochaine génération de GPU :smiling_face_with_three_hearts:

« La nouvelle génération de cartes graphiques NVIDIA n’est toutefois pas attendue avant, au mieux, septembre 2022. »
Bin, septembre 2022, c’est demain (ça passera vite, vous verrez) :sunglasses:

Donc la nouvelle génération sera gravée plus fin, aura plus de coeurs et plus de mémoire cache. Vous sentez pas comme une bonne odeur de prix totalement prohibitifs, encore ?

Je crains aussi que les prix MSRP seront excessifs, tu y ajoute la pénurie / scalpeur / mineur et tu ne trouvera pas de 4090 à moins de 2000$.

Wait and see.

Il sera en effet TRÈS intéressant de comparer les perfs 3090 Vs 4080, pour voir quels progrès auront été faits niveau architecture.

1 « J'aime »

Après ceux qui ont une 3090 compte rentabiliser un minimum (logique), je doute qu’ils changent a chaque gen, enfin moi non en tout cas. Après « normalement » (si on suit le schéma qu’ils utilisaient avant), la 4070 devrait être peu ou prou une 3090 en perf (si c’est pas le cas, c’est du foutage de tronche (même sans prendre en compte les 2 ans entre les deux).

Après comme d’habitude, prenez des GPU au MSRP (ou proche), je sais c’est chiant en ce moment (enfin ça va mieux déjà), sinon ils en profiteront pour monter encore les prix.
Pour les FE, qui sont obligatoirement au MSRP, c’est soit chez NVidia ou LDLC (et ils font payer les frais de ports les sa**ds).

2 « J'aime »

Je généralise, il y aura toujours des gens pour changer (j’ai même vu des gens passer d’une 3080 10Go a une 3080 12Go …). Après c’est sûr que si la next gen a 30% de perf en plus, consomme moins et ne coûte pas plus cher, j’y songerais aussi mais je ne crois pas aux fables ^^

(mais j’aimerais être surpris bien entendu)

1 « J'aime »

Chez Nvidia, ils devraient prendre un contrat avec Nettflix.

J’aurais tendance à penser le contraire. Pour moi ceux qui prennent ce genre de cartes ultra haut de gamme, entrent essentiellement dans deux catégories :

  • des professionnels qui ont un réel bénéfice à chaque pouillème de performances en plus,
  • des kékés fortunés qui veulent absolument avoir la plus grosse.

Pour les autres, c’est vraiment pas rentable d’opter pour ce genre de cartes. Par exemple pour le gamer raisonnable, autant la différence entre une 3070 et une 3080 peut se justifier, pour garder la carte significativement plus longtemps, autant entre une 3080 et une 3090, le passage du simple au double ne se justifie pas, la 3090 aura grosso modo la même durée de vie, les 5-10% de performances en plus ne permettront pas de la faire durer ne serait-ce que un an de plus…

Donc au final, ceux qui ont le plus de chances de remplacer une carte de nième génération par une carte de génération n+1, ce sont ceux qui avaient déjà la meilleure de la génération n. Les autres utilisateurs de génération n attendront pour leur part sans doute n+2 ou n+3, si ce n’est plus.

1 « J'aime »

Faudra voir l’ampleur de la consommation électrique aussi…

Sans oublier ceux qui travaillent et ont voulu se faire un gros plaisir pour quelques temps, ceux qui ont dû changer de GPU et qu’il n’y avait que ça sur le marché, ceux qui jouent en 4K et qui ont donc besoin de pas mal de puissance.

Au final, la génération 3 est passé comme une lettre à la poste, je vais me rabattre sur la 4, on est plus à quelques mois près.

Une conso maîtrisée au niveau de Pascal svp

Doux rêve …:slight_smile:

Heu… si les informations sont vrais, on fait x2 en puissance par rapport à Ampere. Si c’est pas fou… je sais pas ce qu’il vous faut ^^

Quasi les mêmes specs ? Oo tu es sur d’avoir bien regardé ?

La puce AD102 (qui sera dans une potentiel 4080 ou 4090) propose 18 432 core cuda ! Comparé au 10 752 d’une 3090 Ti. C’est déjà 71% de plus ! (et on a aussi plus de TMUs, plus de ROPs, plus de RT core, plus de Tensor core et plus de cache qui se rapprocherait de l’infinity cache d’AMD).

Ensuite, si le tableau est juste ces puces devrait utiliser le process N4 de TSMC. Qui est une petite évolution du N5 (6% de densité en plus dixit TSMC). Sauf que, il faut prendre en compte que le 8nm de Samsung est assez mauvais. Inférieur au N7 de TSMC. Bref si ce N4 est bien vrai on saute deux génération de process !

Quand tu vois que les cartes AMD n’ont aucun mal a dépasser les 2 Ghz en TSMC N7, Nvidia n’aura aucun mal à le faire en N4. Les modèles les plus haut de gamme seront largement à 2.2Ghz. (avec sans doute encore un peu de marge, mais mieux vaut être prudent, 2.2 est déjà très conservateur vu que c’est ce que fait AMD en N7 or là on serait en N4).

Et il ne faut pas oublier que Nvidia va sans doute encore optimiser un peu plus son architecture par rapport à Ampere.

Donc quand je dis x2 en puissance je ne tiens compte que du nombre de core et de la fréquence. On sait pas si on aura une meilleure mémoire, de meilleures core Tensor, de meilleures RT Core etc… Donc je suis peut être encore loin de la réalité.

comme d’hab rien de nouveau.