Commentaires : Remplacer sa GeForce RTX 2070 ou RTX 3070 pour une RTX 4070 est-il intéressant?

Il fut un temps où il était bien délicat de choisir une carte graphique. Les plus anciens écraseront une larme en repensant à 3DFX, Rendition ou Virge. Si les choses sont aujourd’hui plus simples, le renouvellement interroge toujours. Quand et pour quels bénéfices ? Est-il nécessaire de troquer sa GeForce RTX 2070 pour une RTX 3070, voire une RTX 4070 ?

On voit que Nvidia veut vider les stocks de la série 40 avant le début de la nouvelle année et l’arrivée des 50 pour se payer un article chez Clubic. Dommage d’ailleurs que l’article n’en parle pas du tout même si je comprend pourquoi…

Faut il se prendre une 4070 ou attendre les très prochaines 5070 :wink:

Ce qui serait sympa c’est de faire des tests avec un logiciel de génération d’images externe, comme Losseless scaling par exemple.
Dans certains jeux il est très efficace.

Sans aucun doutes ni hésitations il faut impérativement prendre la 4070 maintenant sinon comment allez-vous pouvoir vous laisser convaincre qu’il est indispensable de prendre la 5070 à sa sortie quand ils feront le même article en changeant la date et en mettant 4070 là ou il a 3070 et 5070 là ou il y a 4070 ?
Enfin mon ami votre remarque est bien déplacée

2 « J'aime »

J’ai à un moment voulu troquer ma 3060ti pour une 4070, pour me rendre compte à temps qu’au final en 1080p j’avais un meilleur rendu et FPS en désactivant les paramètres auto de geforce experience, pour choisir une résolution native sans RTX et sans DLSS.

J’ai bien peur que grâce à ces techno d’amélio d’image, le futur du jv ça sera ça: des jeux finis à la pisse, pas opti, les devs qui seront en mode « rien à battre d’opti, le DLSS fera le reste du travail ». J’espère me tromper.

Il y a peu de chances que tu te trompes, puisqu’ils font déjà ça depuis longtemps, en comptant sur la puissance du matériel pour pallier à leur manque d’optimisation. ^^

J’ai HORREUR de ces techniques de reconstruction d’image, de sous/surechantillonage. Et j’ai l’impression que les développeurs ne prennent même plus la peine de viser un niveau de performance selon un palier de configuration type 1080p/60fps natif. Maintenant on balance juste tout le travail sur ces technologies qui de toute facon feront tout le boulot (façon de parler) pour équilibrer et compenser constamment selon le hardware et le niveau de détail à afficher à l’instant T.

Donnez-moi un du natif 24/7.

On atteint les limites du silicium la finesse de gravure arrive à la fin. La seule solution est la mise à l’échelle de l’image via IA ou logicielle et la reconstruction si on veut qu’elle soit rapide. Même si les jeux étaient bien optimisés cela ne changerait rien ; les GPU ne sont pas assez puissants pour ce qu’on leur demande (sauf les 90 mais c’est 600Wh).
Si l’Envie a introduit le DLSS ce n’est pas pour rien, ils savent qu’on est à la limite en terme matériel et que c’est la seule solution. AMD idem.

La ghost est pas mal mais elle a un défaut : elle chauffe beaucoup.

« les GPU ne sont pas assez puissants pour ce qu’on leur demande »

Je ne comprends le but de ce message. Les jeux actuels tournent sur du matos actuel, oui ou non ? Oui ? Alors ils sont assez puissants pour ce qu’on leur demande. Ca coule de source.

En fait, c’est un « comparatif Nvidia ».
Personnellement, ça ne me parle pas. Il y aurait eu, AMD et Intel en plus…
Mais un tel comparatif, c’est du boulot. Je n’en veux pas au rédacteur.

C’est un test « au pire », donc au pire la 2070 c’est pas top
Et fatalement elle sera obsolète bientôt sur de + en + de jeu tout comme la 4070 ne sera pas utilisable en 4k bien longtemps (car à la limite dès le départ)

Chez mes parents j’ai des vielles 1060 et 2060, on joue en coop/reseau sans souci sur ces pc faut juste pas s’attendre a jouer sur Black Myth: Wukong. ( La 1060 est souvent sur minecraft quand on est pas là :face_with_hand_over_mouth: )

J’ai testé fsr 3 + frame génération sur ff16 sur une 3080 en 4k, pas super convaincu, latence trop visible si les fps chutent, pas ma tasse de thé ce truc. mais je me prive pas d’utiliser le dlss quand il fait un meilleur boulot que le natif + antialiasing moisi non désactivable