Commentaires : NVIDIA travaillerait sur une RTX 3050 8 Go, pour répondre à Intel ARC

À l’évidence, une question se pose : qu’en sera-t-il des tarifs et de la disponibilité réelle de cette nouvelle carte graphique
?

NVIDIA pourrait faire un effort sur les 3070 et 3080. J’attends ça moi :no_mouth:

2 « J'aime »

Si y’a le decode/encode nvenc 7th gen comme les 2060/3060, ça peut servir, pour un PC stream ou de montage vidéo.

Bin, de mon côté, ce serait pour jouer en full HD.
Mais bon, j’ai un espoir : quand INTEL s’attaquera aux cartes haut de gamme, NVIDIA suivra avec les 3070 et 3080… :relaxed:

En QHD ma 1080 TI custom tient bien la route mais pas de RT mais 700€ à l’époque. Visiblement les constructeurs rush sur l’entrée de gamme limite pour de l’ultra en FHD et RT inactivable,je ne sais pas trop avec les séries 2060 qui ont droit à leur refresh mais ces cartes sont-elles encore d’actualité en bientôt 2022 et à quel prix ?.
Effectivement à quand un effort sur les 3070/80 dispo et à des prix décents car à ce rythme la série 40XX RTX sera dispo.

8Go pour de l’entrée de gamme hum… ça servira juste à la rendre plus cher à fabriquer…
c’est inutile pour du 1080p…

1 « J'aime »

avec 4Go tu peux manger un 10aine de stream sur un 1050… quel est l’intéret ?

La 1050 n’a pas le nvenc turing (7th gen), c’est la 6ième gen (pascal) : le nvenc est top dans sa dernière version (s’approchant du x264 medium), mais la 6ième gen c’est franchement pas terrible (pour du stream à bitrate 8000 et en dessous en tout cas).
Pour une machine dédiée stream, c’est mieux d’avoir la dernière : GTX 1660 (ou limite une 1650 avec mémoire GDDR6, mais pas les premières), RTX 20x0 ou RTX 30x0.
Après pour juste accélérer pour du montage vidéo, pourquoi pas, ça suffit pour le décodage, en faisant le rendu final en software.

La VRAM doit être en cohérence avec la puissance … un GPU qui a beaucoup de VRAM mais pas assez de puissance ne sert à rien car généralement on a besoin de plus de 4 Go de VRAM en 2K (et plus) avec des options graphiques élevées … hélas cette carte n’est pas du tout taillée pour de la 2K.

Elle va être bridée par la puissance du GPU avant d’être bridée par sa VRAM. Sans oublier son bus ridicule de 128-bit.

Tout à fait d’accord avec toi … autant de VRAM en FHD ça sert à rien et au delà du 1080p elle sera larguée à cause de sa puissance donc la VRAM importe peu !

Peu être que certains trouveront un usage mais pour moi c’est une carte disproportionnée (bus ridicule, VRAM conséquent, nombre de coeurs qui ne correspond pas à la catégorie de cette carte).

Du coup elle sera proposée à un prix pas du tout attractif pour ses specs !

Bien évidement qu’AMD et Nvidia ne veulent pas laisser le secteur d’entrée de gamme tomber dans le giron d’Intel. Ce serait la tête de pont qui pourrait lui permettre de pénétrer le marché plus vite et plus fort que les rouges et le verts ne le voudraient.

8 Go de RAM, c’est justement la quantité la plus adapté pour les jeux en 1080p pour 2021, 2022 et 2023. L’activation du DLSS pompe de la RAM par exemple.

Ensuite, 3072 coeurs, c’est beaucoup pour de l’entré de gamme en 8 nm. L’Ultra haut de gamme - qui n’oublions pas, est limité par son TDP - ne fait que 4 fois plus environ soit 10288 coeurs à peu près.
Lorsque l’on combine nombre de coeurs et TDP, l’écart se réduit entre l’ « entrée de gamme » et l’ « Ultra haut de gamme ».

Son bus de 128 bit est justement pas ridicule au regard de celui de la RTX 3090 qui fait 384 bit seulement, et cela semble suffire. Il ne faut pas reproduire l’erreur d’ATI avec sa HD 2900 512 bit dont on sait parfaitement aujourd’hui que la HD 4670 qui avait une même architecture et ne possédait que 128 bit, n’avait une chute de performance que de 25% environ. La HD 2900 256 bit quand a elle avait les même perfs.
Tant que le bus ne bride pas les perfs générales de plus de 10% dans les situations extrême, ça sert à rien d’augmenter la taille du bus.

Pour du 1080p; les benchmarks montrent que 6Gb c’est un maximum.
La VRAM sert à stocker des textures et la définition ne change pas d’un jeu à l’autre.
La bande passante de la VRAM va influencer le résultat plus que ça…
Quelques options peuvent la charger, mais 8Gb c’est 2Gb de trop qui ne seront jamais exploité car la carte ne va pas devenir plus puissante au cours de sa vie…
Des cartes d’entrée de gamme comme les x50 ne seront pas assez puissantes pour en exploiter plus, même avec salades, tomates oignons textures et éclairages…
Je ne parle pas d’édition video ou autre, mais pour du gaming, aujourd’hui ça reste juste un argument marketing…
C’est bien pour ça que 10Gb c’est déclaré suffisant jusqu’au moins 2024 pour du 4k !
Alors que le 4K représente des textures 4x plus grosses à stoker que le FHD (1080) !
Et on a pas un rapport de 4 entre la 3080ti (12Gb) et la 3050 qui se veut 8Gb…

Je suis d’accord avec ça.

4 Go sont déjà parfois insuffisant en 2021 donc.

C’est possible. Tant que ça dépasse 4 Go de toute façon, 8 Go devient une bonne quantité.

Ça ne marche pas comme ça. Le passage du 2K (2 MPixels) au 8K (32 MPixels) n’engendre pas un passage de par exemple 5 Go de RAM occupé pour le 2K à 80 Go de RAM pour le 8K ( (32/2) * 5 = 80 Go de RAM ). Ça se saurait si ça avait été le cas.
Un jeu en 2K peut tout à fait prendre plus de RAM qu’un autre jeu en 4K par exemple. Certains jeux prennent beaucoup de G-RAM et d’autre, peu.

Pour moi, non.
16 Go, oui, ça aurait été un (mauvais) argument marketing car payé bien cher. La GDDR6 coûte cher.

Ensuite, si le GPU tient encore 2 ans, 4 Go de RAM seront insuffisant sur trop de jeux d’où le passage nécessaire à 8 Go de RAM pour de la pérennité.

Je viens juste de comprendre :slightly_smiling_face:

En faite, je pense que tu n’as (semble t’il) pas compris le lien entre la valeur du bus et la quantité de RAM graphique.

Les fabricants utilisent une quantité de RAM multiple de la valeur du bus. Par exemple, la RTX 3060 a un bus de 192 bit, alors le fabricant met soit 1,5 go, soit 3 Go, soit 6 Go, soit 12 Go, soit 24 Go etc… . Mais pas 8 Go, ni 16 Go.

Les 192 bit répartis avec des puces mémoires de 32 bit nous donne 6 puces. La densité de stockage des puces est variable (512 Mo, 1 Go, 2 Go, etc…).
Avec 6 puces de 1 Go, on est à 6 Go pour la RTX 3060 par exemple.

Exemple où on voit clairement les 6 puces :


(source : Palit GeForce RTX 3060 Dual OC Review - Circuit Board Analysis | TechPowerUp)


La RTX 3080 a un bus de 320 bit, dans ce cas, les quantités possibles sont :
5120 Mo (10 puces de 512 Mo), 10240 Mo (on retrouve les 10 Go de la RTX 3080 dont tu parle), etc…

Sur cette photo, on voit clairement les 10 puces associées au GA102 :


(source : NVIDIA GeForce RTX 3080 Founders Edition Review - Must-Have for 4K Gamers - Circuit Board Analysis | TechPowerUp)


Et enfin, pour terminer, ici, le HD 2900 XT 512 bit où l’on voit bien les 16 puces (8 sur chaque faces) associé au R600 :



(source : ATI Radeon HD 2900 XT Review - A Closer Look | TechPowerUp)




C’est pour ça que Nvidia serait bien embêté de mettre 8 Go à la RTX 3050 et laisser 6 Go à la RTX 3060. Donc, pour une question de cohérence (respect de la hiérarchie entre les GPU), la RTX 3060 passe à 12 Go. De toute façon, 6 Go est trop limite pour l’avenir.


Nota : Car d’après ce que j’ai compris, tu aurais voulu que Nvidia dote la RTX 3050 (128 bit donc) avec 6 Go de RAM car selon toi, c’est suffisant, pas besoin de 8 Go car les jeux demandent moins de 6 Go mais parfois plus de 4 Go et en choisissant 8 Go, il y a 2 Go en trop et donc, c’est du gâchis ?

Si il faisait ça, il devrait désactiver une partie du GPU comme c’est le cas avec les RTX 3080 (320 bit au lieu des 384 bit du processeur GA102).

La RTX 3050 serait alors muni d’un bus de 96 bit au lieu de 128 bit et de 3 puces de 2 Go ? Cette carte serait moins bonne malheureusement.

Et sinon, pour un PC stream ou PC montage vidéo y’a moins cher : une PNY T600 !
4 Go de VRAM, bus 128 bits (160 Go/s), 640 cores cuda … ouaip c’est nul pour du jeu.
Ca correspond en gros à une 1650 Mobile, sur une carte PCIe 3.0.
Mais pour un PC stream ou montage vidéo, c’est top, car c’est un chip turing, avec le nvenc 7th gen : deux encoders hardware & un decoder nvenc, le même qu’une 3090 par exemple, et le tout à 220€ sur amazon.

Là nvidia sort une « grosse » 2060 juste pour écouler de la RAM (apparemment ça ils en ont en stock) et vendre une carte dépassée à un prix abusé.

Salut,

J’ai regardé vite fait.

Tu peux regarder ici : Comparez les GPU GeForce RTX série 30 pour PC portables
Encodeur NVIDIA : 7e génération
Décodeur NVIDIA : 5e génération

Pour toute les RTX, y compris la 3050. La T600 ne semble pas avoir 2 encodeurs matériels. C’est juste écrit que l’on peut lancer 3 sessions concurrentes (lire en parallèle). A voir plus en détail, mais cela dit, ça ne m’intéresse pas spécialement.

Nota : Le décodeur de Turing est de 4th génération. On peut le voir ici aussi : Comparatif des GPU GeForce ultimes

D’accord avec toi, certains ne comprennent pas que 8Go sur une carte d’entrée de gamme c’est du gâchis qui coute cher, ils se rassurent en se disant que c’est bon pour l’avenir :wink:
Mais en fait dans l’avenir ils changeront de carte car la leur sera de toute façon trop peu puissante… et ça n’est certainement pas la VRAM qui les sauvera… mais bon…
Vous êtes de très bonnes victimes du marketing ^^