Commentaires : Cyberpunk 2077 : la version 2.0 va faire chauffer votre processeur

Venant d’un mec qui utilise des expressions qu’il ne maîtrise pas pour se faire bien voir (et qu’il ne sait pas écrire…) c’est quand même assez drôle, surtout quand tu penses que t’as les capacités de vexer quelqu’un sans rien faire…

Non, tu n’as pas provoqué quoi que ce soit, tu as juste sorti une énormité (parmi tant d’autres dans ce fil) et tu n’acceptes pas qu’on te montre le ridicule de ce que tu racontes.

En plus tu oses parler d’assumer alors que vu ce que tu balances comme débilité on est à se demander si t’as la possibilité de savoir ce que veut dire assumer.

On va revenir au sujet s’il vous plait. ^^

2 « J'aime »

Toi tu nous parle du pitch d’un écran et des pixels d’un écran et du fait qu’il est quasi impossible de voir la différence entre du 4k et du HD sur un « petit » écran genre 27"
Ce qui est VRAI je te l’accorde.

Sauf qu’il y’a un truc que tu ne pige absolument pas. C’est la Résolution !
Jouer avec une Résolution en 4K soit 3840x2160 c’est avoir 4 écrans HD sur son écran! et donc la possibilité d’afficher bien plus d’éléments à l’écran, que ce soit pour l’UI d’un jeu ou le jeu lui même.

Donc quand tu explique sur un ton péremptoire que:

Vouloir à tout prix jouer en 4k c’est ridicule ça n’apporte rien de plus visuellement par rapport à du 1080p à part faire exploser la consommation électrique, la surchauffe et donc l’impact écologique.

C’est faux et prouve ton ignorance sur le sujet.

Et pour revenir au sujet « merci juju »
J’espère juste que ce DLC de CP77 sera bien optimisé pour les ryzen vulkan aussi.

Les Ryzen Vulkan ?

Les quoi ? paf

1 « J'aime »

l’API optimisé pour les cpu AMD (ryzen) ça tourne mieux qu’avec directX11 :wink:

Je joue sur du 27 pouces et je suis passé de 1080p à 4K puis retour raisonnable à 1440p mais 165 Hz.

De mon expérience perso, jouer en 1080p sur du 27 pouces non merci.
la 4K sur un écran de cette taille n’apporte effectivement rien du tout.
Au mieux je jouais à l’époque sans aucun filtrage car l’image était belle naturellement.

Ce n’est que mon humble avis :slight_smile:

1 « J'aime »

En PLS !!!
Vulkan c’est une API GRAPHIQUE pour les cartes graphique. Avec CPU AMD ou Intel, aucun changement.
Pas mieux en Ryzen qu’en Core.
Tu confond avec les APU ryzen qui intègre une puce graphique et là évidemment c’est plus performant quel que soit l’API de programmation (OpenGL, Vulkan, DirectX) que la partie graphique intégré à des Intel.
Vulkan marche très bien aussi sur les cartes graphiques Nvidia

Je joue en 4K sur ma tv 75pouces, la full hd c’est aussi non merci :sweat_smile:

Après avec le dlss on peut dire que je joue aux jeux récents en 1440p si cela peut faire plaisir a certain mais dans pas mal de jeu je suis en natif 4k

Contrairement a pas mal de gens je limite mes FPS sous le max du jeu, mon gpu est rarement a fond. Etre a fond de gpu c’est avoir + de variation de fps à mon avis.
Je joue même avec les options pendant qq minutes apres l’installation d’un jeu, voir parfois les fichiers de configuration (elimination de toutes les sources de flou, de grain de film, d’effet bidon et certain truc trop gourmand pour ce que cela apporte)
(Le dernier god of war j’ai carrément modifier l’executable du jeu avec un éditeur hexadecimal pour dégager la profondeur de champs ignoble presente par defaut )

Mais dans un jeu je ne fais jamais calculer 300FPS au gpu pour n’en afficher que 120, j’utilise même assez peu le 120HZ de ma tv 4K pour l’instant les fps ayant déjà un peu de mal a dépasser 60

Enfin quelqu’un de normal et pas un acharné du FPS. Bravo. Ça fait plaisir.

Moi également j’utilise assez peu le RT car dans pas mal de jeu ça n’apporte rien du tout.
Le grain de film c’est l’option la plus debile qui existe. La dégradation de l’image !!!
Les flous souvent aussi gachent l’expérience.
Et l’occlusion ambiante qui bouffe beaucoup, ça dépend aussi. Des fois ça améliore vraiment les ombres et des fois on ne perçoit aucune différence.

Mon écran est donc à 165 fps mais aucune différence au delà de 100 voir 120 pour des jeux typés FPS.

Et comme le but n’est pas de devenir le prochain triple champion en e-sport, ça suffit largement.

Je ne sais pas modifier les exe, par contre l’undervolting de la carte graphique pour moins chauffer et moins ventiler, ça je gère

Salut à toi.
Je ne m’abaisserais pas à balancer des PLS à tout va.
Mais pour ton information.
Bien que en effet l’API Vulkan à pour intérêt principal la chaine GPU, pilotes, et moteur 3D.
l’API Vulkan améliore AUSSI la gestion des CPU multicore comme les Ryzen AMD.

De fait et que tu me crois ou non m’importe peu mais j’ai 20% de FPS en plus avec Vulkan activé plutôt qu’avec DirectX11.
Passer de 100fps a 130fps ne change pas grand chose pour moi, mais quand le jeu propose les 2 API pourquoi ne pas prendre la plus performante pour sa config…

L’API graphique Vulkan permet aussi d’augmenter les performances grâce à un meilleur support des processeurs multicœurs, en supportant par défaut de multiples threads. Ainsi, Vulkan peut optimiser l’utilisation d’un processeur doté de multiples cœurs pour mieux répartir la charge et tirer parti des performances maximales. C’est grâce à cette nouveauté qu’il est désormais possible d’afficher des milliers, voire des centaines de milliers d’objets sur une scène sans mettre à genoux le processeur, tout en conservant une bonne fluidité, exprimée en images par secondes (FPS).

Manifestement tu ne sais pas ce qu’est Vulkan alors.

Depuis que les PC existent, on a eu opengl, glide, tous les directX, vulkan pour les principaux.
Chacun ayant des avantages et des inconvénients et forcément des performances différentes.
Comparer DirectX 11 et Vulkan, forcément les performances ne sont pas les mêmes.
De même qu’entre DirectX 11 et DirectX 12 non plus.
Ensuite chaque interpreteur graphique a aussi des fonctions différentes comme le ray Tracing, certains antialiasing, une gestion différente des caches, des shaders etc…
Au fil des évolutions, de nouvelles fonctions sont apparues et les performances ont parfois chuté drastiquement mais avec une qualité visuelle bien différente.

On sait de sources sûres qu’avec Vulkan les performances sont là et pourtant la prise en charge reste à la marge.
Souvent une option obscure.
Mais les éditeurs continuent pourtant à travailler sous DirectX 11 et 12 par habitude, facilité de programmation etc…

Un article rapide à lire pour comprendre ce qu’est une API.

https://www.malekal.com/directx-vs-opengl-vs-vulkan-lequel-est-le-meilleur/

4k, FULLHD on parle déjà de résolution alors ne viens pas me dire que je ne comprends pas c’est une grosse blague…

Une scène 3D en 4k dans un jeu complexe comme cyberpunk prendra plus ressources qu’en fullHD obtenir le rendu, c’est tout à fait logique. Et d’ailleurs tu te contredis, tu l’as compris toi même on affiche beaucoup plus d’éléments.

Pour l’UI ça a peu d’impact, en général 90% des jeux l’adapte et affiche la même chose ou presque.
Pour ce qui est d’un jeu 3D complexe comme CyberPunk, le calcul en 4K est bien plus gourmand qu’en FULL HD car on augmente significativement le nombre de polygones.
Si ce n’était pas le cas, tu n’aurais pas une baisse significative des FPS, donc tu consommes plus de ressources sur ton système (pour beaucoup du GPU mais pas que) c’est d’une logique implacable.

Tu parles d’ignorance, visiblement tu es en plein dedans ton « ryzen vulkan » ne veut rien dire.
Tu mélanges un nom de processeur avec une API 3D qui succède à l’openGL.

Ca je peux tester

Full hd (dlss qualité)


image

3080 = 260W
5900X = 128W
fps 84

4K (dlss qualité):


image

Une vielle ampoule de différence sur cette scene

Je m’attendais a avoir + de fps en full hd, j’ai touché qu’a la definition (en enlevant la synchro verticale avant)

Me suis rendu compte alors que j’etais en dlss : un test sans le dlss qualité serait plus logique
En vrai 4K (pas de dlss/fsr…)


image

Finalement, en vrai full hd (pas de dlss/fsr…)
J’avoue que cela m’etonne un peu moi même, le gpu s’emballe un peu coté puissance
J’ai les même fps que la haut, le dlss se désactive peut être tout seul en full hd? (quoique j’etais a 76% de gpu la haut , comme si j’avais une limite de fps vers 84, peut être du cpu limited en gros)


image

2 « J'aime »

ça serait déjà plus juste de le faire avec et sans DLSS, les performances de l’algorithme ne sont pas linéaires.

Précise quelle est ma contradiction parceque toi tu ne répond même pas a mon explication.
Toi tu mélange la résolution et le pitch d’un écran…
D’ailleurs il faudrait faire la distinction entre les résolution d’écran TV et de moniteurs qui portent parfois à confusion, mais bon osef atm.

Moi je t’explique et te démontre, que ce que tu dis est faux puisqu’il suffit de constater qu’entre la « Résolution » en 3840x2180 c’est en effet du 4K et le FHD du 1920x1080 en théorie cela quadruple la résolution (bureautique windows) en pratique cela permet d’afficher bien plus sur un écran (en particulier les grandes tailles d’écran, 35" et plus)

Dès de départ j’ai dis que la 4K n’avait presque pas d’intérêt pour des écran de 27" ou moins. Mais je peux te garantir que sur mon écran Oled de 42", je joue a 70cm de lui et grâce à un pitch plus fin et du fait de la résolution en 3840, la différence avec du FHD est INDÉNIABLE !

D’ailleurs bien que l’évidence crève les yeux tu botte en touche en nous parlant sur le fait que la 4K ça pompe plus de ressources que la HD. De fait si la 4K pompe plus de ressource que la HD c’est une preuve de plus que la 4K permet d’avoir une résolution plus grande et plus d’éléments graphiques à l’écran.

Pourquoi pense tu que TOUS les spécialistes de hardware et les fabricants eux même recommandent certaines carte gfx puissante avec bcp de ram pour la 4K ?!
Preuve encore que ce dont tu parle est délirant et faux.

Donc merci Mr Obvious! de ta démonstration comme quoi la 4K consomme plus que la HD. mais sérieux arrête de nous prendre pour des imbéciles, ça arrive de dire une connerie c’est pas grave hein

Manifestement tu ne prends pas la peine de me lire et de me répondre.

Et puisque manifestement tu ne veux pas écouter ce que les gens t’expliquent peut être que tu sera prêt à croire des studio de dev comme Ubisoft et les journalistes de Tomhardware

# Ubisoft opte pour l’API Vulkan plutôt que DirectX 12 pour son Rainbow Six Siege
La solution API Vulkan privilégiée face à DirectX 12, en raison de meilleurs performances CPU !

https://www.tomshardware.fr/ubisoft-opte-pour-lapi-vulkan-plutot-que-directx-12-pour-son-rainbow-six-siege/

Donc toi qui nous explique que l’API Vulkan n’a aucun impact sur la relation CPU / GPU c’est juste faux, c’est peut être à la marge dans certains jeux moins bien optimisé mais c’est juste Faux.
wala wala…merci au revoir et sans rancune hein :x

Bon déjà tu devrais te calmer, à aucun moment je n’ai parlé du pitch.
Le pitch impacte toutes les résolutions, en espérant que tu saches ce que c’est et ce n’est pas ce dont j’ai parlé, si ça peut influer sur le recul (plus le grain est fin moins on a besoin de recul) et la finesse des très ça ne change pas pour autant tes calculs.

Je parle pour les jeux en 3D (eh oui on parle de cyberpunk), ce que tu ne comprends pas c’est que ce n’est pas parce que tu affiches ton jeu en 4K que celui-ci va être nécessairement beaucoup plus détaillé qu’en FULLHD, tout va dépendre du moteur, du modèle (3DS ou autre) des objets etc.
Donc en général oui c’est plus détaillé mais ça ne change pas du tout au tout, d’autant qu’il faut que toutes les textures soient aussi optimisées pour ça et c’est très lourd. Je dis simplement que du coup en action, la différence visuelle est minime, tes objets seront un peu détaillé (encore que) et que l’énergie supplémentaire dépensée ne vaut pas le coup.

Ton coup de 4 écrans FULLHD (pas HD qui fait référence au 720p) pour un jeu 3D du coup ça ne veut absolument rien dire en soit. C’est bien le cas en 2D par contre.

Maintenant si sur un 42" avec seulement 70 cm (alors qu’il faut un bon mètre pour apprécier l’image dans son ensemble) de recule et tu vois une différence indéniable entre le 4K et le FULLHD sur un jeu comme CyberPunk, alors moi je dis bravo car tu as sans doute les gènes d’une mouche :joy: ou tu es très sensible au marketing et tu essayes de te rassurer en te disant que tu as bien fait.

Pour le reste si tu n’est pas capable de comprendre qu’un jeu 3D en 4K comme Cyber consomme nettement plus qu’en FULLHD, alors que le simple test de @Feunoir le montre nettement, ben je peux rien pour toi il faut retourner à l’école.

Il a jamais dit que ça n’avait pas d’impact, tu aimes les propos fallacieux visiblement.

Il a dit simplement que comparer DX11 et Vulkan est un peu biaisais du fait que Vulkan est une API plus moderne comme DX12.1.

Vulkan est une excellente API, mais il a raison sur le fait que DX12 est encore plus utilisé sous Windows (avec la proximité de la XBOX) parce plus répandu chez les devs. C’est tout, c’est du pragmatisme.

J’ai edité mon post de test au dessus, il est plus precis sur le test qui est fait
C’est une fois rédigé la première partie que j’ai vu que le dlss était actif.

Beaucoup de paramètre graphiques du jeu sont au maximum, qq trucs qui font du flous ou le grain de pellicule sont sur off
Les effets RT? il n’y a que le reflet.
Je pense que je suis CPU limited sur le premier test, en full hd dlss au vu du gpu a 76%.
Peut être en equilibre cpu/gpu en full hd
Et évidement gpu limited en 4k , et peut être que la vram 10go sature quand même un peu sans le dlss

1 « J'aime »

Évidemment, reste qu’il n’y a pas de magie et on voit bien que la consommation augmente significativement c’est tout à fait logique.