Commentaires : NVIDIA : il y aurait une RTX 3090 SUPER à venir, et elle enverrait du lourd

Quelques mois après la sortie de sa gamme Ti, qui concerne les séries RTX 3060, 3070 et 3080, NVIDIA aurait dans ses cartons un modèle « Super » de sa très haut de gamme RTX 3090.

Et vendue à un prix indécent. Ouaaais !

2 « J'aime »

T’as les moyens, tu achètes. Tu les as pas, tu te rabats sur un autre modèle. Cela fonctionne pour pas mal de choses ^^

1 « J'aime »

Le tableau à la fin de l’article annonce un tarif identique à la 3090 du moins pour les FE

Attention tout de même l’article provient de wccftech qui annonce pas mal de rumeurs ( rappel en 2019 et la fameuse 2080 Ti super , tous les sites de hardware se sont empressés de faire une news dessus et au final…)
J’ai du mal à croire que NVIDIA va sortir une telle carte ( pour 2 ou 3 % de perf en plus)

3 « J'aime »

Les consommations sont délirantes…
si on couple ça avec le dernier i9 d’intel à 250W ça tape les quasi 700W sans compter la CM et les autres périphériques…

Faudrait peut être arrêter la course à la puissance à un moment…

3 « J'aime »

« pour supporter cette usine à gaz. » : terme péjoratif et exprimant un aspect négatif. Rien ne permet de l’affirmer à moins que vous ayez testé.

Sinon, le SLI est toujours possible avec ces futures modèles ?

1 « J'aime »

Il faudra bientôt une alim exterieure dédiée au GPU. Je suis sûr que l’on y vient.
Par contre d’un point de vue marketing j’ai toujours trouvé que le termer « Super » de chez Nvidia était assez ridicule…

Comprends pas ta remarque. Vois pas en quoi mon com est péteux.
Si les gens sont assez kons pour faire un crédit pour une CG, on peut plus rien pour eux.

1 « J'aime »

Bientôt la CG fera aussi boitier pour le PC.

1 « J'aime »

Toutes mes excuses alors.
Oui effectivement tu as tout à fait raison.

Les gars … c’est une carte qui sert à rien du tout encore moins pour le Gaming … la RTX 3080 Ti reste la carte la plus puissante pour les jeux/prix (elle arrive même à dépasser la 3090 sur certains modèles OC) donc payer 500 euros de plus pour gagner 5 FPS euhhh

« elle enverrait du lourd » euhh … permettez-moi d’en douter c’est pas avec 256 coeurs de plus et une fréquence « sûrement » moins élevée (comme c’était le cas avec la 3080 Ti) qu’elle va faire des ravages !

La RTX 3080 Ti a 1536 Coeurs de plus que la RTX 3080 … en jeux la différence en FHD (ce qui est bête de jouer en FHD avec ce monstre) est de 10 FPS un peu plus sur certains jeux où le framerate est très élevé … en 4K la différence devient plus étroite on parle de 5 FPS sur beaucoup de jeux et certains le gain est nul.

Donc avec 256 coeurs de plus … le calcul est vite fait … vous ne ressentirez peut être même pas la différence et sur certains jeux vous aurez quoi ? 2 ou 3 FPS coool

En tous cas sur les jeux d’Ubisoft je vous le dit tout de suite vous aurez un gain de 1 FPS et encore :stuck_out_tongue:

Sur Red Dead Redemption 2 … vous aurez 0 FPS en 4K peut être vous aurez 2 ou 3 FPS de plus.

Bien sûr avec des gains ridicules vous la payerez 200 ou 300€ plus cher que la 3090 :slight_smile:

Ahhhh oui j’ai oublié la Mémoire … Oui on a enfin une carte graphique (presque mainstream) avec 1 To/s de bande passante (useless pour le Gaming mais ça a le mérite d’en parler).

« En tous cas sur les jeux d’Ubisoft » : c’est du Ubisoft, optimisé par un manchot avec une truelle en papier mâché :slight_smile:

@Emmanuel Angulo : +1 avec toi Emmanuel , Nvidia a sorti ce nom qu’une seule fois pour le refresh Turing et tout le monde parle de version Super maintenant alors que si ca se trouve Nvidia n’emploiera plus ce terme.

@Mamide : en effet , je vois mal comment elle va pouvoir envoyer bcp plus de lourd que l’actuelle 3090 vu ces rumeurs de specs.
personnellement c’est bien simple , comme la 2080 Ti en son temps qui n’a pas eu de version "améliorée’ , je ne crois absolument pas à la sortie de cette 3090 améliorée.
surtout vu la situation actuelle de pénurie !

Je pense que les 3090 sont un compromis jeux/applications, du moins je le vois comme ça. Rendering 3D, video etc… applis supportant le calcul GPU-Cuda et sans oublier le max de ram qu’elle embarque.
Après, avec une 3090, on peut aussi jouer en 8K sur un 88’’ :stuck_out_tongue_winking_eye: (cf video Linus Tech Tips RTX 8K Gaming). Plus sérieusement, ça reste une bonne carte pour le jeu.
Et pas oublier le SLI qui n’est possible uniquement sur ces modèles-là.

Tu le sort d’où ce chiffre ? sachant que pour calculer la consommation réelle du processeur seul, c’est très complexe et que la plupart des tests qu’on peut voir se fait via la carte mère, donc la consommation de la CM en plus…

Autre petit détail, et pas des moindres vu que beaucoup font l’erreur :roll_eyes: le TDP n’est pas la consommation du processeur.

Si elle remplaçait la 3090 pour le même prix ok mais là elle vaut pas le coup même pour les applications … franchement la 3080 Ti reste la meilleure performances/prix

Pour le SLI (D’ailleurs c’est le NVLink aujourd’hui) beh ça n’a aucun intérêt pour les jeux car il n’y a plus de SLI c’est mort car les développeurs et même Nvidia n’arrive pas à donner un gain important vis à vis de la consommation.

Imagine 2x RTX 3090 pour une consommation de 1000 Watts (avec le CPU) … tout ça pour gagner 20 FPS c’est nul !

En effet ta raison … mais en même temps c’est pas pour rien que les gens confondent les deux car au final si le processeur a besoin de dissiper 95 Watts c’est qu’il les a consommés :slight_smile:

Si un CPU consomme 200 Watts … ils vont aller où ? car en physique "Rien ne se crée, rien ne se perd, tout se transforme) … ils vont se transformer en chaleur tout simplement et cette chaleur doit être gérée par le Système de refroidissement voilà donc en donnant le TDP on donne à la fois la consommation et on donne une référence à ceux qui fabriquent les ventirads.

Mais dans un certain point ta raison de dire que le TDP n’est pas la consommation car les fabricants mentent sur le calcul de cette valeur … chez Intel par exemple le TDP est juste quand on utilise pas tous les coeurs mais en boost avec des calculs intensifs (AVX2) beh ça explose tout en AVX-512 le 11900K atteint même 350 Watts c’est pour dire !

Mais un CPU qui a un TDP de 125 Watts (en Stock) et beh il consomme même moins si on désactive le boost. après le PL2 personne n’y croit on sait tous que ça consomme plus car ça devient ingérable mais en même temps tu sais qu’il faut un Ventirad qui dissipe 200W et s’il peut pas le faire alors ton CPU va chauffer à mort et il va s’éteindre.

Mais intel s’en fout de ça car dans la majorité des cas on dépasse pas le TDP.

Oui, les gens confondent, mais dans le fond, c’est presque pareil : pour évacuer cette chaleur, le processeur a bien du prendre l’energie quelque part :wink: