je continue à affirmer que les jeux tourneront en 4K sans problème avec une carte dans les 350 euros dans les 18 - 24 mois à tout casser. C’est pas seulement un problème de finesse de gravure… Tout ce petit monde (microsoft, fabricants de cartes graphique, intel, éditeurs de jeux) se rencontrent régulièrement lors de réunions, et en gros ca doit donner ca lors des réunions :
AMD et NVIDIA qui dit à microsoft : bon les gars on va avoir une forte demande pour le 4K, vous avez prévu quoi?
microsoft : on a une version béta de directx 12 qui est prête avec des fonctionnalités pour le 4K sur une béta de windows 10, on vous envoit le tout dans quelques jours pour que vous puissiez faire des tests.
les éditeurs de jeux : on peut avoir aussi cette version béta de directx 12?
microsoft : oui bien sur
les éditeurs de jeux à AMD et nvidia : est-ce que vous pouvez nous faire parvenir vos prototypes de cartes graphiques pour qu’on puisse se caler sur de bonnes perfs en 4K?
AMD et Nvidia aux éditeurs : on a 4 ou 5 protos qui sont prêts, les voila.
et voilà en gros comment les jeux seront opérationnels en 4K dans 18 mois avec des cartes à plus ou moins 350 euros…
Edité le 16/11/2014 à 21:44
Même si clairement, entre le 1080p et le 4k c’est surtout une histoire de puissance du matériel, je crois que les éditeurs de jeux vont trainer les consoles “new gen” comme des boulets … :arf:
A mon avis, le premier trimestre 2015 donnera beaucoup d’indice sur la perspective 4K.
De manière générale, les cartes graphiques, contrairement aux proco, démontrent des progressions constantes : En 2013, on tournait Crysis 3 a 30 fps en 4k non ultra avec un SLI gtx780. Aujourd’hui, on le fait tourner à 24 fps en 4K en extrême avec une GTX980 (overcklockée gigabyte tout de même) ! Il va y avoir une évolution, et le gros bond en avant est possible à mes yeux.
Je trouve que clucluclu se positionne bien : il est probable que les prochaines cartes feront tourner du 4K avec un très bon fps pour des gros jeux, le 60 fps atteignable éventuellement. Mais pas partout, avec quelques difficultés encore. Surtout sur les jeux récents. Mais il y aura une complémentarité avec les optimisations software : les mises à jours cartes graphiques et jeux, DirectX12…
Puis la prochaine génération le fera plus aisément et les cartes haut de gamme atteindront 120fps en 4K sur les gros jeux sans broncher
Ceci m’apparaît raisonnable comme théorie
Bon après si AMD et Nvidia sont chauds, on passe très vite à la phase 2
Edité le 16/11/2014 à 22:50
Pour suivre ce marché depuis plus de 15 ans (brdl :sweet: ), j’ai l’impression que ça évoluait plus avant, avec des sauts entre les générations de cartes plus marqués.
Après, effectivement l’émergence de la 4k peut donner un coup de fouet.
En revanche (mais c’est un avis perso, là comme ça), je pense que le plus gros goulet d’étranglement ne sera pas le GPU, mais la bande passante mémoire, la 4K ça risque d’être très très gourmand …
Il ne faut pas oublier d’ailleurs que depuis les Geforce 3 / 4 / FX (et Radeon de la même époque), pas mal d’optimisations ont déjà été mise en place pour économiser de la (trop) fameuse bande passante mémoire. :paf:
Qu’est ce qui détermine une bonne gestion de la bande passante mémoire ? (J’avais déjà lu un truc la dessus mais j’ai oublié lol) Si mes souvenirs sont bons, le SLI permet une meilleure répartition de la bande passante mémoire c’est cela ?
En tout cas on a déjà bien avancé On peut dire qu’actuellement, une seule carte pour la carte 4K c’est foutu, pour le SLI actuellement c’est variable et un peu aléatoire. Pour les prochaines cartes : une seule ça peut le faire, SLI les cartes résistent dans 90% des cas. Voilà une spéculation raisonnable
Edit : j’ai trouvé cette histoire de bande passante mémoire dans le test des gtx 980 et 970 de clubic.
C’est très intéressant puisqu’il indique que le changement d’architecture (Maxwell) fait ici encore économiser de la bande passante mémoire je me trompe ?
Supposons qu’elle s’appuie sur cette architecture tout en augmentant l’interface mémoire, on est plutôt bien parti. Oui je sais j’aime bien lire la réalité selon mes désirs
Edité le 16/11/2014 à 23:08
Rapidement, de bonnes optimisations au niveau du GPU (compresser ce qui est compressible, ne calculer que les éléments qui vont être affichés etc …) et pourquoi pas repasser à un rendu direct (pas mal de “gros” jeux utilisent un rendu différé pour économiser de la puissance de calcul, mais ce type de rendu consomme en général plus de mémoire. (Bon, je simplifie volontairement, parce que je ne vais pas décrire le fonctionnement des types de rendus, sinon on en a pour des plombes :ane: )
Pas vraiment, déjà les éléments composants la scène (textures, etc …) doivent être chargés simultanément dans la mémoire des deux cartes, donc non, pas “d’économie” de bande passante mémoire en SLI / Crossfire.
En fait c’est justement cette prédiction nostradamesque que je ne comprend pas :neutre:
Il n’y avait pas un gouffre de perfs entres la série 6** (pour ne citer que Nvidia) et la série 7,il n’y en a pas non plus énormément entre la 7** et la 9** (une 780 tenant toujours bien tête à une 970)
Et justement,les 9** étaient censées être gravées en 20 nm mais l’ont été en 28 parce que la technologie n’a pas pu être mise au point,certains articles disent d’ailleurs que la gravure en 20 nm serait abandonnée au profit de celle en 16 nm,donc certainement pas pour 2015…s’ils arrivent d’ailleurs à la mettre au point : puisqu’ils se sont ratés sur la 20 nm,rien ne dit que la 16 sera viable
Alors sur quoi vous basez-vous pour prédire que la puissance des gpu doublera voire triplera d’ici moins de 2 ans,d’autant que ça n’a pas été le cas pour les générations précédentes ? :neutre:
DirectX n’est jamais qu’une API,pas quelque chose de magique qui va tout améliorer tout seul ^^ le résultat dépend des capacités des développeurs à l’utiliser,mais aussi de la volonté de bien faire…si un éditeur pousse au c** pour qu’un jeu sorte au plus vite même s’il n’est pas parfaitement au point et buggé (et ce ne sont pas les exemples qui manquent ces dernières années),qu’il ait été codé avec DX9-10-11-12…ne changera rien au résultat final : il sera bâclé et ne tournera pas bien quelque soit la carte graphique ^^
Disons que j’en ai assez vu en près de 20 ans de jeux vidéos
On nous promet monts et merveilles à chaque nouvelle version de DirectX…moi je pense que la technologie et les applications existantes pourraient faire mieux,peut-être même beaucoup mieux…mais comme je le disais,encore faut-il qu’il y ait derrière la volonté de mieux faire et c’est ça qui est loin d’être gagné,surtout du côté des éditeurs de jeux
Et côté hardware,je pense que c’est l’échec de la gravure en 20 nm qui a poussé Nvidia a optimiser la 28 nm pour la série GTX 9** avec les résultats que l’on sait : amélioration des perfs/chauffe/conso…c’est pour moi la preuve qu’une technologie existante qui n’a pas été poussée jusqu’au bout de ses possibilités peut être optimisée si on le veut vraiment ^^
Si à l’inverse ils avaient maîtrisé la 20 nm,ils auraient sorti une nouvelle génération de cartes et personne n’aurait jamais su ce que la 28 nm avait dans le ventre exactement,elle n’aurait tout simplement pas été exploitée jusqu’à ce point…c’est ce qu’on appelle le progrès mais que moi j’appelle une fuite en avant : on manque de tomber parce qu’on court,alors on court de plus en plus vite pour se rattraper et éviter la chute…mais combien de temps ça peut durer ? :neutre:
On voit la même chose du côté des éditeurs de jeux : un jeu est bâclé pour limiter ses frais de développement et sort trop vite -> il est buggé -> se vend mal parce que ça fait vite le tour du Net -> on refait exactement la même chose pour le jeu suivant
Alors que s’ils prenaient le temps de vraiment bien réaliser un jeu avant de le sortir -> frais plus élevés,oui mais -> bon jeu qui tourne bien,bon accueil de la part des gamers -> volume de vente plus élevé ^^
Pour le 20nm, c’est juste que TSMC a trop de clients à fournir, déjà qu’entre Amd et nvidia ils avaient de la misère, là t’a appeul qui vient foutre le trouble plus d’autre clients.
À mon avis, nvidia a juste décidé de faire le truc le moins chère possible en attendant la prochaine génération. Puis bon, la prochaine génération de carte graphique ça sera adieu la GDDR5 pour le moyen/haut de gamme et bienvenu la HBM
Ce sera pour le premier semestre 2015 les premières carte en 20nm et en principe ce sera AMD qui ouvrira le bal (enfin j’espère pour lui sinon il va continuer à s’enfoncer, sont tellement à la rue qu’à moins d’une nouvelle archi qui poutre ils vont avoir besoin d’une belle avance au calendrier en espérant que les marketeux ne détruisent pas tout avec des modèles de références à chier.)
Bon on voit qu’il y a quelques rumeurs qui disent que le 20nm ne sortira pas en 2015… Mais on voit aussi l’inverse se dire !
Néanmoins si AMD sort le HBM il y aura de bonnes optimisations, notamment au niveau Bande passante
En fait je me suis simplement basé sur le comparatif année 2013/année 2014 de tests de jeux en 4K : Crysis 3 devient beaucoup plus abordable en 4K qu’auparavant et c’est de bonne augure pour la suite s’ils décident de sortir les optimisations citées.
Je suis d’accord ça conditionnera entre autres, des cartes graphiques au potentiel intéressant.
Bon sinon je fais un HS dans “mon” propre topic : Je regardais un peu l’étendue des différents sites pour l’achat d’un PC (même si j’ai le temps je regarde déjà lol), c’est fou les différences de prix
Est ce que l’on peut faire confiance à des sites comme topachat ou magicpc ou bien on prend le risque de se retrouver avec du matos reconditionné ? Un pc qui marche pas ou mal et dont le SAV ne sera pas coopératif ? Voir absent ?
Je poste ici pour éviter d’attirer tous les mécontents Dur de se faire un jugement sur la toile.
A propos de TSMC : quand deux entreprises s’accordent pour l’execution d’un service, j’espère qu’ils prennent en compte que leur obligation doit s’accomplir dans un délai de temps déterminé sinon ça ne sert à rien
Je n’arrive pas à concevoir que les entreprises comme AMD ou TSMC ne planifient pas convenablement leurs objectifs et que TSMC se retrouve à “privilégier Apple” alors qu’il y a “AMD derrière”.
Après s’il y a des difficulté à faire des gravures à 20nm c’est un autre problème. Mais cela reste à prouver vu que ces gravures sont réalisées par d’autres sociétés comme GlobalFoundries qui n’ont aucun problème. Bon après peut être que pour les cartes graphiques c’est plus dur je sais pas
Edité le 19/11/2014 à 09:07
Je refait un remontage de topic parce que d’autres réflexions sur le thème “4K et PC gamer” me reviennent. On va aussi avoir un Topic bien garni sur la 4K (il est d’ailleurs bien référencé sur google :D) et désolé pour le gros pavé xD
Bon, depuis nos discussions, je me suis finalement acheté un PC assez haut de gamme, équipé d’un i54690K et d’une gtx 980 EVGA ACX 2.0.
Sincèrement je suis super épaté par la config’. Certes je savais que la 4K ne serait pas encore de ce monde mais elle devient RELATIVEMENT proche en mono-gpu. Je m’explique.
Avec le mode DSR, il est possible de dépasser la résolution standard fullhd sur nimporte quel jeu. C’est équivalent du super-sampling, mais en mieux puisque la montée en résolution est plus progressive et le traitement est plus personnalisé (on peut lisser l’image pour la rendre moins aliasée mais plus floue ou bien la rendre plus détaillée mais un peu plus aliasée).
Du coup j’ai essayé sur pas mal de jeux toujours en conciliant qualité et performances et ça donne sur les jeux testés :
BlackFlag en Ultra HD :38402160, tout au max, avec SMAA en AA, et sans PhysX, VSYNC ADAPTIF
Ryse son of Rome légèrement en dessous : 33251871 tout au max VSYNCADAPTIF ici encore,
Pour d’autres jeux on en est loin, par contre on augmente sereinement en resolution par exemple :
Metro REDUX : 28801620, tout au MAX mais le SSAA en 0 bien sur
WATCHDOGS : 28801620, SMAA, tout au max. Pour celui-là, je n’ai pas testé mais en bidouillant un peu on peut arriver en 4K à un peu plus de 30fps
Pour AC UNITY par contre on passe à 2560*1440. Mais le jeu est en ULTRA avec le MSAA en 2x Un résultat honorable lorsqu’on sait qu’en SLI avec un CPU et des GPU overclockés, le jeu tourne en 40-50 fps mais avec FXAA, ombre en élévé (pas douces) et un autre downgrade au niveau des textures je crois : blogs.msdn.com…
Sur tous ces tests, l’expérience de jeu était très bonne. Certes on était pas dans le 60 fps, et les puristes diront que je suis trop enthousiaste, que ces paramètres correspondraient plus à des config SLI GTX9xx, mais on devait être entre 30 et 55 fps, peut être avec d’exceptionnelles chutes à 20.
Le gain en netteté était lui, flagrant, alors que je joue sur un plasma panasonic G20 qui date de 5 ans.
J’ai quand même constaté qu’il y avait un bon dès qu’on atteint l’ULTRAHD : Sur Ryse, on peut monter en 3325*1871 sans vraiment perdre en fps. Par contre dès qu’on atteint la dernière mesure, l’ULTRAHD, ça chute drastiquement (entre 20 et 30fps environ), et le gain en netteté était là.
En bref ce n’est pas encore ça certes, mais c’est intéressant de constater la possibilité de jouer sur des résolutions supérieures au fulhd en mono-gpu. Maintenant c’est clair que cela va énormément dépendre du jeux ! En plus, les config moyenne gamme sont sans doute + éloignée de ce type de performances, donc c’est vraiment à relativiser.
Mais du coup je me posais une question, j’ai joué sur un plasma 50pouces FULLHD. Savez vous si en branchant le PC sur une grande TV4K, les résultats seront les mêmes ? Où bien il y a risque que ça baisse en raison d’un affichage plus “exigent” ?
Je ne suis pas encore décidé d’acheter une TV (qualité pas assez au rendez vous), mais si elle à un très bon upscale, on pourrait obtenir un affichage beaucoup plus classe… en attendant une grosse CG qui contentera tout le monde !
Edité le 01/02/2015 à 01:28