Commentaires : La GeForce RTX 3090 en photo à côté d'une 2080... qui paraît toute petite

Change d’écran…
Chez moi, le PCI-E mesure 4,4cm pour la 3000 et juste 4,1cm pour la 2000

Oui, mais as-tu tenu compte de la déformation géométrique provoquée par l’objectif photo ?
Les deux cartes n’étant pas situées au même endroit sur la photo, la déformation est potentiellement différente et donc les tailles perçues peuvent changer.

Sinon, sérieusement, certains se prennent la tête pour ça ? On verra bien quand ce sera sorti.

De toute manière, dans tous les cas, elle ne passera pas par chez moi, car "Si c’est Nvidia j’en veux pas"©. ane

Je précise quand même pour la team 1er degré, que ma dernière phrase est évidemment un (semi, parce que bon, c’est Nvidia quand même shy ) troll.

1 « J'aime »

Question de perspective car les cartes n’ont pas la même épaisseur donc ne sont pas situées à même distance (et mon 27" QHD va très bien, merci de te soucier de son remplacement).
Pour finir, la 2080 prise pour comparaison n’est pas si grande que ça. Plusieurs modèles même plus anciens ou d’une marque concurrente titillent les 30 cm.

Je viens de changer de config et j’ai pris une grand tour (fractal design define 7XL), du coup ça va passer !
Le souci maintenant c’est l’alim, 750W j’espère que ça va suffire…

ça reste une rumeur encore et comme Nvidia travaille toujours avec TSMC je préfère croire au 7nm c’est plus logique.

Après si c’est du Samsung 8nm … c’est le C** entre 2 chaises !!!

y aura sûrement des modèles Customs qui vont consommer à mort genre si une Founders Edition consomme 350W alors une ROG Strix va consommer au moins 400 Watts si ce n’est plus !

Montre moi une carte graphique qui consomment 300w.

1 « J'aime »

On parle de la RTX 3090 là …

Sinon pour les cartes qui dépassent les 300 Watts je vais citer des exemples simples : Radeon VII et RX Vega 64 … elles dépassent largement les 300 Watts en Load !!

Moi je vois 334w la config complète (en stressant que le GPU)

Comme dab, les gens regardent les graphiques sans lire…

1 « J'aime »

Arrête de prendre tes grands airs … tu me critiques sur un article que ta posté et lu toi-même … pour ma part j’ai dit qu’elle consomme 300 Watts je n’ai pas donné de lien d’article donc …

En plus cette article se base sur une Carte AMD pas une Carte Custom … qui achète des cartes AMD avec Blower ??

Je maintiens mes 300 Watts et plus …

C’est tellement pratique d’affirmer quelque chose et de réfuter ce que répond l’interlocuteur sans donner la moindre source …

600 wattsssss… c est deja la consommation d’une pompe a chaleur reversible. est ce qu’il la fournisse en option avec la carte video? 600 watss c’est enorme.

1 « J'aime »

Ton commentaire est correct, mais il fait aussi penser à tous ces imbéciles qui achètent des alimentations overkill en permanence. Combien de personnes achetant une config se sentent obligés de prendre 1000w, ou même 800w…

1 « J'aime »

Bon, les 600w c’est en utilisation intensive, ce qui est pas en permanence. Et ça reste à prouver. Plusieurs jeux n’utiliseront peut-être pas la carte à 100 %.

La Carte Graphique dans un jeu doit toujours être à 99% … si c’est pas le cas alors y a un problème quelque part souvent un bottleneck du CPU.

Dans un jeu la CG fait en sorte de fournir le plus de FPS possible même si le jeu ne demande pas beaucoup de ressources graphiques alors le GPU compense en fournissant plus de FPS.

Donc la seule raison qui peut stopper une CG c’est le processeur … bon y a des jeux mal optimisés qui n’exploitent pas la CG à plein gaz.

Dans une machine il y a toujours un composant qui constitue un bottleneck et ça doit être la Carte Graphique et pas autre chose sinon y a un problème !

Et non, malheureusement tu es dans l’erreur. La carte graphique devrait envoyer le même nombre d’images que le rafraîchissement maximum de l’écran, le reste est superflu et ne sert qu’à faire chauffer la carte et à gaspiller de l’énergie, tout en augmentant la facture d’électricité.

Je comprends ce que tu voulais dire, mais de fait, les FPS supérieurs ne servent à rien. L’idéal est d’activer le limiteur de FPS intégré aux software AMD et Nvidia et de le capper 1 ou 2 fps en dessous des Hz maximaux de l’écran (pour éviter de sortir du G-Sync / FreeSync si présent).

Ben voyons.
Evidemment, tu tiens ça d’une source fiable que tu vas nous exposer ?

Non, avec la synchro verticale (et des options permettant d’indiquer une fréquence d’affichage cible) la carte peut très bien limiter sa charge pour ne calculer que le nombre d’images que l’écran peut afficher ?
Si l’écran a une fréquence d’affichage de 60 HZ, à quoi bon calculer 400 fps ? (je précise que ce n’est qu’un exemple)

Qui a parlé de taux de rafraîchissement ? tu as beau avoir un écran 60 FPS … ta carte va calculer 4000 FPS si elle peut le faire elle s’en fout de ton écran !!!

Pour l’usage du GPU … on achète pas une RTX 2080 Ti pour l’utiliser avec un i3 et avoir un usage de 30 ou 40% dans les jeux … autant acheter une 1660 dans ce cas là !

Moi je pars du principe que celui qui achète une carte d’une certaine gamme il sait quoi faire avec !

Celui qui achète une RTX 2080 Ti c’est pour jouer en 4K pas en Full HD alors la fréquence de l’écran n’est plus un problème !

Pour ceux qui ont une RTX 2080 ils jouent en 2K et 120 Hz ou 144 Hz font largement l’affaire !

Pour les autres beh y a le Full HD et une carte moins puissante qui va être adapté !

Amigos … de nos jours y a des écrans à 360 Hz … qu’est ce que tu me racontes ?

Et même si ta le Gsync et FreeSync … tu joues pas avec un écran de 60 Hz si ta une CG haut de gamme faut être un peu logique !

Bah si, il est où le problème ?