Dans son dernier tweet, kopite7kimi redistribue quelques cœurs CUDA à la GeForce RTX 4090, mais rabote la VRAM de la GeForce RTX 4070.
Pour ma part, les 4000 ne m’intéressent pas du tout. Les jeux qui en profiteront arriveront dans X années…
Moi ça m’intéresse avec la montée des fréquences des écrans hummm . Je vais revendre ma 3090 .
De la pure connerie les tdp, je le dis et je le répète ça n’a aucun sens, on passe du 8nm samsung dégueulasse au 4nm tsmc, sans même doubler les perfs mais on augmenterait quand même la conso, de la pure connerie.
Je reste sur mon idée, hors 4090 qui semble être fortement devant le reste en terme de perf, les autres baisseront leurs conso.
rtx 4070 +60-80% de perf pour un tdp de 200 watts, c’est écrit et gravé sur clubic, par contre pour la vram je sais pas mais j’espère que c’est faux le 10go, déjà 12go je trouvais ça limite.
Leak? C’est quoi ?
Fuite
Tu entends quoi par en profiter ?
Selon les exigences actuelles on peut mettre à genoux une 3090 ti, et on pourra sans aucun doute le faire avec une 4090
On peut supposer que plus on s’approche de la date de sortie effective et plus les leaks auront des chances d’être fiables mais force est de constater qu’on en est pas encore là.
Je trouve en effet certains info assez douteuses, comme la différence d’augmentation des cuda entre la 4090 et la 4080 (+56% Vs +18%) ou même le fait que la 4070 aura une augmentation des cuda supérieure au modèle au dessus. +28% pour les 4080 m’aurait semblé plus crédible.
En 4k oui, ce qui concerne 2% des joueurs (stats steam).
Hors 4k, sans même parler de DLSS, les cartes actuelles sont quand même relativement suffisantes (surtout en 1080p, aucune n’est à genou).
Il faudra attendre des gros jeux AAA basé sur l’UE5 (à priori pas avant 2024) pour avoir mieux que… Cyberpunk sortie en 2020.
Je veux dire que si le parc d’ordi est en 3080, peu d’éditeurs de jeux vidéo n’oseront sortir un CyberPunk 8K. A la limite, ça aura pour vertu d’optimiser les moteurs graphiques.
Alors :
- @AtomosF le rendu en 4k natif, ca ne sert a rien, meme les gars de Digital Foundry le disent, c’est total overkill, 1440p est la meilleur des resolution
- @turrican59 pour le framerate, si tu vois une difference au-dessus de 60 fps: chapeau, mais c’est possible. au dessus de 90 c’est comme la 4k : ca ne sert a rien (voir les videos de Linus)
- @sph car tu crois que les devs se b***le la nouille, tous les moteurs sont deja optimisés au max
Les RTX, c’est une transition que nVidia essaye de déguiser depuis le debut: ca ne sert a rien tant que le hardware ne permet pas de faire de la global illumination en real-time. Les reflections, on s’en fiche.
Donc cette nouvelle gamme elle me laisse amère car vu les consommation, je me dis vraiment que c’est bouffer du watt pour rien.
Si elles peuvent faire de la GI de A à Z, alors oui ce sera le debut d’une generation superbe. Mais on ne voit rien dans les leaks qui nous laisse dire qu’il y a assez de patate pour cela dans cette nouvelle serie.
@zekkawa Impossible de voir au dessus de 90 fps mais t’as fumé la moquette ? La différence entre du 90 et du 160 sur mon écran je la vois de suite. Arrête de prendre les vidéos d’un youtubeur pour des faits sans vérifier par toi même.
« 1440p est la meilleur des résolution » Uniquement avec le DLSS d’activé sinon la 4K est forcément au dessus.
Mais arrêtez de dire qu’on voit pas au dessus de 60 ou 90 ips sinon allez consulter ! Tu me fais un blind test je te reconnais toutes les fréquences dans l’ordre direct en bougeant une fenêtre, ça se voit comme le nez au milieu de la figure. Et en jouant c’est encore plus flagrant, un coup de souris et c’est torché.
C’est clair que sur PC à la souris la différence est flagrante entre le 60, le 90 et le 120 fps.
Par contre à la manette, sur une TV compatible 120hz j’avoue qu’entre le 60 et le 120 c’est plus difficile de faire la différence.
« Montée en fréquence », 144hz ne vous suffit pas ? Vous voulez du 500 Hertz ? Il va falloir acheter des yeux bioniques…
Je te parles de jeu video, pas de fluidite de ton curseur souris, ca ne change rien de ton experience de gaming au dessus de 90 fps, entre la latence des periph d’entree, le buffering de la simulation du jeu, le pipeline de rendu, il y a un sacré delais.
Si tu fais parti de ceux qui sont sensible a ce point au niveau de la fluidité, tant mieux (ou tant pis) pour toi. Tu dois limite vomir au ciné quand il y a un large travelling.
J’ai plus de 20 ans d’xp sur le development de moteur 3d, oui, j’ai accès a des écrans 4k.
Le rendu 4k natif, c’est histoire de dire « on le fait » mais tout le monde est d’accord pour dire qu’il vaut mieux plus de FPS que du 4k.
Au passage, dans mon post c’est ecrit « possible » et pas « impossible », donc tu vois ptet la difference entre 160 et 400hz, mais pour lire… ^^
Reston cool, ok? C’est un debat d’opinion, j’agresse personne.
Non, je t’assure, certaines personnes ne verront jamais la difference.
ok, entre 4k et 1080p on voit la difference, c’est sur. mais entre 1440p et 4k ? Quand un jeu utilise du TAA, franchement, vous arrivez a voir la difference quand vous etes en train de jouer ?
Le seul game changer c’est DLSS qui donne des resultat de dingue et justement, la résolution de rendering est super faible avant d’etre upscalé avec DLSS.
Tout le monde est passé a coté de ce que je voulais dire (donc je n’ai pas dû le dire correctement) :
Nous avons plus besoin d’une next gen de CGFX qui permet de faire du true real-time global illumination que d’empiler des Stream Manager et Cuda unit pour faire plus de grosses textures et plus de pixel a rendre a l’écrans.
Le jour où on aurant un system de GI qui nous permettra de nous débarrasser des nombreuses techniques de shadow mapping, de contact shadows, d’ambient occlusion et toutes ses conneries qu’on emplie car tout est fake au niveau du lightning, cela va révolutionner le pipeline de production des jeux et nous aurons de belles images.
Unreal a pas mal de longueurs d’avances, mais il faut que cela se democratise.