Forum Clubic

Commentaires : Nvidia : la RTX 3080 déclinée en trois modèles se confirme et arriverait dès septembre (page 4)

Je t’invite a chercher la GV100, Tesla V100 32 et la RTX 8000 pour te rendre compte que c’est loin d’etre déconnant. 10 000 euros c’est meme pas le plus cher

@Karim Menu
@PierreKaiL

Si je prends mon cas de figure, c’est à dire avec un écran 2K 144Hz G-Sync, une 2070 et même une 2080 ne suffisent pas sur beaucoup de jeux. Déjà pour profiter de la fréquence de rafraîchissement d’un tel écran, et d’autre part à cause de l’input lag généré

Pour du 144hz 2K c’est sure qu’il faut un Sli, pour l’input lag cela dépend de ton écran (LED, QLED, OLED, Plasma), pas de la carte, pour finir vouloir jouer en 144hz et 2k c’est beaucoup demander aussi…

L’input lag ne dépend pas que de l’écran, chaque élément peut apporter son input lag, la souris et le clavier, mais aussi les performances liées au CPU et au GPU.
Tu peux avoir un écran, une souris/clavier parfait, mais avoir un gros input lag parce que ton GPU n’est pas assez puissant.

Tu peux même avoir 60 FPS et ne pas ressentir de l’input lag, puis passer a 200 FPS et sentir une différence au niveau de l’input lag et avoir du mal à revenir a 60 FPS parce que ce n’est plus « fluide », meme si ton écran n’est que de 60 Hz

@Blap
Mille excuse…

Ha ok. Je n’avais pas pris en compte la fréquence. Effectivement du 2k en 144HZ sollicite énormément la carte graphique. Je joue en 2k avec un moniteur de 60HZ natif ( temps de réponse de 1 Ms ) et la gsync. Dans ses conditions ma 2070 suffit à ne pas souffrir de l’input lag ou de tearing dans la majorité des jeux en max setting.

Le principal input lag que tu auras avec un PC actuel et une RTX 2070 viendra surtout de ton écran. La fluidité dont tu parles sur un écran à 60hz donc en desynchro comparé à la synchro d’activé, en fonction des jeux ok mais le tearing c’est vraiment trop moche et encore une fois l’input lag ne sera généré que par l’écran. Il ne faut pas confondre temps de réponse et input lag, Le temps de réponse représente le temps que met un écran pour passer d’une image à l’autre. L’input lag désigne l’écart de temps entre le moment où la CG envoie un signal et le moment où il s’affiche. Un CRT n’aura pas d’input lag. Sur les écrans actuels, Led, Qled, Oled, il faut compter minimum 13 ms d’input lag (pour les meilleurs), cela se situe en moyenne plus à 18/20 ms voir plus, et je ne vois pas quel élément se rajouterait à cette mesure, peut être un peu la CG sur le résultat mais là c’est le temps de réponse, pas de l’input lag, avec une 2070 c’est 10 ms en moyenne je dirai (temps de réponse d’une image à l’autre), rarement plus et souvent moins (6/8ms), surtout si elle arrive à faire tourner le jeu à 144hz. En tout cas c’est comme ça que je vois les choses, après si tu as des sources qui prouvent que j’ai tort pas de soucis ça me fera coucher moins bête.

1 J'aime

Il va y avoir plein de nouveau record de benchmark.

Donc Nvidia va faire de belle vente avec un très beau chiffre d’affaire et tout les actionnaire seront heureux.
Ainsi ils sauteront de joie avec plein de bonbon et de friandise amusante .

Mais ils ne pourront pas faire la fête donc ils vont faire un bal masqué à cause de mon ami le covid…

:slight_smile:

Désolé mais l’écran peut être très loin derrière la CG, ca ne se compte plus en 10ms mais en beaucoup plus, parfois 10 fois plus. Suffit de faire le test en la bridant si t’en as une trop puissante, une caméra haute vitesse et tu filmes ton écran et ta souris. C’est un phénomène qu’on remarque depuis une vingtaine d’années si ce n’est plus. C’etait deja le cas sur Counter Strike.
Tu peux aussi jouer a 300 FPS pendant longtemps et limiter a 60 FPS après. L’inverse étant beaucoup plus difficilement remarquable, ou en tout cas prend beaucoup plus de temps (normal). Ce n’est peut etre pas voyant sur tous les jeux, mais sur des jeux comme CS c’est clairement le cas.

Pire encore avec le GPU, tu peux avoir 100 FPS mais avoir l’impression que tu regardes une vidéo saccadée, il y a beaucoup d’elements et mesures a prendre en compte.

PNY Tesla V100 (32 Go)
10 992€ donc oui ça existe et ce n’est que sur le fournisseur LDLC.
Et il y a en d’autre à ce PRIX ! mais certainement pas jouer :upside_down_face:

ARM c’est quoi ? c’est juste fondamentalement des architectures externes de type RISC 32 bits et 64 bits développées par ARM Ltd depuis 1983 et introduites à partir de 1990 par Acorn Computers développé par une société anglaise qui a le vent en poupe depuis l’apparition des smartphones.

Car mine de rien l’architecture ARM est entrain de rattraper l’architecture x86 et pas qu’un peu d’où l’apparition et les projets de type CPU Hybride avec des cores x86 et des cores ARM.

Sur un simple smartphone,un des 8 cores du Snapdragon 865 (Nouveau cpu ARM de Qualcomm peut titiller les 3 ghz).

Donc imaginez sur un PC desktop ?

Et puis les puces ARM sont de plus en plus dense en transistor ! voir plus que les cpus x86 Intel et AMD.

Et en plus,il faudra changer son alimentation ? non ! à mon avis il existera des adaptateurs 12 broches.
Cela a déjà été dit ! sur un autre site,il me semble ! car changer son alimentation Seasonic certification Titanium 750 w,ça va pas être trés bon pour le commerce de ces cartes Nvidia RTX 3000.
Pourvu qu’il y a un BIG NAVI xtx qui met 30 % à une RTX 2080 TI ! genre une Radeon 5950xtx 16 go hBM2 (1To/sec bande passante).

Pareil,j’ai jamais entendu une histoire de ratio entre la mémoire centrale et la mémoire vidéo !

La Mémoire vive stocke les programmes en l’occurrence ( le jeux) et l’envoi vers la Mémoire vidéo qui traître toutes les opérations à afficher à l’écran ! la mémoire vidéo est donc l’élément essentiel pour une configuration gaming !

La mémoire vive en grande quantité et très rapide peut se substituer (dans certains cas,ramdisk,Intel optane…) à la mémoire vidéo, éviter les temps de chargement et fluidifier les calcul entre le CPU et le GPU et les échanges entre les 2 types de mémoires.

éviter les goulots d’étranglement entre les 2 mémoires,faciliter la transition de calcul vers la ram vidéo beaucoup plus rapide.

32 GO drr4/16 Go de vram serait très bien pour un futur upgrade ! car les RTX 2080 quoique puissante ne disposait que de 8 GO max et rien qu’avec Doom Eternal en mode setting
ultra cauchemar EN 1080p à 240 fps on est à 7 go de mémoire consommée !

Et pour rattraper les PS5 et la Xbox serie X (surtout cette dernière avec ses 16 GO) , il faudra au moins 10 go de VRAM sur les Pcs.

ps:Sinon petit constat amère semble t-il des performances de la PS5 pas à la hauteur sur les jeux multi plateforme.
1080p@60fps max, on est loin des 8k à 60 fps :stuck_out_tongue:

Je voudrais booster ma carte graphique d’ici la fin d’année, selon vous est ce que cela vaut la peine d’attendre la 3080 ou est-ce que je peux rester sur une 2080 type TI ou GTX?
Je me souviens qu’il fut un temps (long) où une génération de carte sur deux chez Nvidia était moins bonne, et qu’il valait mieux attendre celle d’après. C’est toujours le cas ?
J’ai aujourd’hui une GTX 1080 Strix 8Go, et quitte à monter en gamme, autant que ça vaille vraiment le coup.

Avant:
-Tiens , si je rafraichissait ma config?
Après avoir vu le prix d’un 2080:
-Bon, je reste sur mon 3400G…

Le Mieux étant d’attendre pour les possesseurs de GPU pascal,les performances des GPUs AMPÈRE et d’attendre oui encore attendre mais pas trop longtemps quand même ! sinon on achète jamais rien et on ne sait de quoi demain sera fait ! Les performances des futurs Gpu AMD en l’occurrence le BIG NAVI XTX qui pourrait être une Radeon RX 5950 XT munie de 16 go de mémoire vidéo HBM2 et qui pourrait bien être au maximum 30 % plus performante que la RTX 2080 TI !.
En tous cas,si une telle carte vidéo AMD viendrait à sortir,c’est finis pour moi NVIDIA ! si bien sur l’Hypothétique Radeon RX 5950 XTX 16 GO HBM2 avec 1TO/sec de bande passante concurrence le très haut de gamme de Nvidia en l’occurrence les anciennes TI Turing et les Nouvelles RTX 3070/3080 Ampère.

Si une tel carte AMD viendrait à sortir,on pourrait dire Adieu et c’est super la concurrence au carte à 1500 euros de Nvidia et on aurait du haut de gamme AMD pour 650 euros ?? si les performances titillent le haut de gamme de Nvidia ??

Radeon Rx 5950 XTX + un Cpu Amd 4800XT mini 8c/16T + très bonne carte mère avec new chipset et on aura du Full AMD avec enfin sa partie graphique manquante ! comme à l’époque des carte vidéos ATI/ Amd et Cpu Athlon 64 !

Big navi XTX,Automne 2020 ? espérons ! marre de ce monopole Nvidia et de leurs cartes aux tarifs prohibitif !
Bien que je possède aussi une RTX 2080Super depuis plus de 1 ans !

Pour le Ray Tracing, c’est à nuancer. Oui, on nous a vendu ça comme une revolution alors que dans les faits, très peu de jeux l’utilise bien.

Par exemple Control, ca apporte quelque chose au niveau des reflets qui est loin d’être indispensable.

Par contre, Deliver Us The Moon sans Ray Tracing, tu perds énormément en immersion et c’est justement son point fort. Tout les reflets et effets de transparence dans l’espace sont dingues. C’est le premier jeu où je vois une différence énorme avec la RTX. Et c’est un jeu indé…

Donc le Ray Tracing apportera clairement quelque chose dans les années à venir mais pour l’instant, il est trop accessoire.

ça parle de 2000€ le prix d’une RTX 3090 …