Pourtant les jeux its meant the way to be played devraient être optimisés
Je parle d’une CG de plus au milieu des appels à la sobriété pour pouvoir se chauffer cet hiver (et le prochain). Faire mieux que la RTX4090 ça ne règlera pas ce problème global.
Mais je crois comprendre que vous vous en foutez un peu… Donc, bonnes parties à vous
Surtout que ce n’est pas du vrai RT mais qu’ une tentative de reproduction des images mis à l’ envers dans les zones miroirs . En tous cas c’est ce qu’ il ressort des images . Le vrai RT c’est simulation rayon par rayon .
Et quand Nvidia sort son 3D , physics , ray tracing c’est quoi ?
C’est juste de ce que tu dis qui n’ est pas vraiment juste
Justement, c’est du « vrai » raytracing que permettent les RTX (ok, c’est du raytacing partiel) alors que les techniques d’éclairage « standard », elles, sont des textures ré-appliquées dans les zones réfléchissantes + des techniques d’illumination qui font à peu près illusion. D’ailleurs, @Yorgmald, pour toi, est-ce de la triche, car ce n’est qu’une technique pour obtenir des images proches de la réalité mais faciles à calculer (le ray tracing est plus proche du monde réel)? Tout comme l’affichage via une triangulation des surfaces, qui ne correspond en rien à la réalité?
Quel rapport ?
Si ils sont tous très fortement optimisés. Seulement les tricks utilisés ne sont pas toujours aussi efficaces, ou pas forcément orientés vers le même but (détails, fluidité, ambiance, charge mentale, …).
Si tu fais un peu de 3D, que tu connais un peu les astuces psycho-visuelles (utilisées aussi en compression vidéo d’ailleurs) et l’ergonomie, tu reconnais vite ce qui est utilisé. J’ai beaucoup d’admiration sur ce qu’ils arrivent à faire avec la puissance actuelle des machines. Je ne suis pas sur le même business (moi c’est plutôt affichage de données, donc pas trop d’optimisations possibles, je dois être au maximum fidèle) et je peste avec les quelques millions de polygones que je peux afficher.
Pas complètement faux. Mais chacun son boulot: les drivers, puis le moteur graphique, puis le travail artistique doivent être optimisés. Il n’est plus possible, vu la complexité des jeux, d’avoir des optimisations croisées importantes. Les optimisation ayant un cout très important, à mon avis, ils ne font rien à part les optimisations d’architecture pendant la conception, et les « bonnes pratiques » artistiques (manipulation d’assets, shaders, …). Mais bon, je n’y connais pas grand chose… Si quelqu’un travail dans le domaine, des infos supplémentaires seraient intéressantes!
Il y a quelque chose que je trouve TOUJOURS sous estimé par les joueurs, c’est que les jeux ont une génération de cartes cible pour leur développement (et réciproquement d’ailleurs aussi, le hardware est adapté aux moteurs et habitudes de dev du moment). Dans les cas extrêmes, une carte vidéo moderne peut être plus lente que ces devancières de même gamme sur un jeu donné.
Ca c’est sûr!
Qu’est-ce qui n’est pas juste ? Mon trait d’humour sur EDF et RTE ? Ma remarque sur la sobriété ?
Par contre, elle est annoncée comme étant concurrente de la 4080. AMD laisse donc le leadership à Nvidia, tout comme (je pense) ils vont le laisser à Intel pour cette génération
lls pourraient très bien faire une carte aussi voir plus puissante qu’une 4090 ? Mais quel est l’intérêt ? Faire plaisir à une poignée ?
Surtout ce serait contreproductif par rapport au message commercial choisi par AMD, qui est « nous, on est PAS comme Nvidia ».
Depuis la sortie des RX 6000, AMD s’efforce de prendre le contrepied de Nvidia pratiquement à chaque fois qu’ils le peuvent : Nvidia sort une carte à 1500$, AMD sort son équivalent sous la barre psychologique des 1000$; Nvidia insiste (très) lourdement sur le RT, AMD préfère miser sur la rasterisation; Nvidia crée des technologies d’upscale verrouillées et exclusives à leurs derniers produits, AMD en sort une open-source et compatible avec toutes les cartes, même les concurrentes etc etc…
De ce que j’ai compris, lors de sa conférence, AMD a repris le même narratif avec l’alimentation 8pins, la taille des cartes, la conso, le prix, le display port et ainsi de suite.
Dès lors, aller à la course aux perfs avec la RTX 4090 à coups d’augmentations de prix et de consommation serait plus qu’inutile, ce serait dommageable en terme d’image et de message puisque ce serait faire du… Nvidia. Heureusement qu’ils l’ont compris.
Il est vrai que Nvidia est très fort pour le marketing, rappelons-nous PhysX, la 3D Vision, le SLI…tout ça est abandonné aujourd’hui et le truc à la mode est le Ray Tracing. Jusqu’à ce qu’ils inventent autre chose pour convaincre les gens que jouer en n’utilisant pas Truc® ou Machin® n’en vaut pas la peine. ^^
Certains se rappelleront peut-être des débuts de PhysX, lorsque Nvidia a racheté en 2008 la société Ageia qui l’avait créé en 2002. A cette époque, non seulement les cartes ATI/AMD étaient capables de faire tourner PhysX, mais en plus avec de meilleurs résultats…jusqu’à ce que Nvidia leur bloquent la possibilité.
Bref, il ne s’agit pas toujours de technologies inventées et utilisables par Nvidia seulement, mais d’une volonté délibérée de les verrouiller. Et c’est une des raisons pour lesquelles, personnellement, j’ai toujours eu une préférence pour ATI/AMD. ^^