Le futur du DX10 ?

Salut à tous,

j’aimerais savoir dans vos conseils d’experts ce qui d’aprés vous va sortir comme carte graphique avec DX10, et quand. Parceque les 8800GTX sont bien gentilles, mais lâcher autant d’argent dans une CG, ça me fait mal au coeur. Je supposse qu’ils ont prévus une solution de rechange aux gens qui n’auraient pas le portefeuille de crésus, et qu’elle est cette solution, et pour quand surtout ^^

Les 7900GTO c’est fini, y’en a plus :’(

:slight_smile: 8600 GT / GS //// 8400 gt/gs

8900 GTX / gt

R600 :slight_smile:

e voila :super:

Le truc ! c’est que les jeux DX10 vont mettre longtemps a sortir , et il n’utiliserons pas tout, tout de suite ! De plus, les cartes ne serons pas non plus super bien roadé pour se genre de calcul . par exemple la gamme FX de nvidia qui supportait le PS2, elle le supportait ! génial ! mais elle s’étoufais des qu’elle commencait ses calcul et donc ! bad score en FPS !

Je crois donc, que pour dx10 , ca va etre pareil, il faudra attendre la gamme suivante pour avoir des perfs correct en DX10 ( pour le reste, je ne dis pas qu’elle ne seront pas bonne )

Tu peu donc, déja te prendre une 7600GT ou équivalent qui te permettra d’avoir un peu de puissance quand meme, tout en étant pas trop chère le jour ou tu souhaite la changer .

Y’a plus de GTO mais y encore des Galaxy 7900 GZ Zalman à 199 euros qui sont hyper bien foutues ! Elles sont devant les 7900 GT grâce à leur overcloking en usine :jap:

Pour DX 10, je suis d’accord avec mon collègue du dessus. Alan Wake par exemple, est repoussé à 2008 alors que c’est un gros titre trés attendu. Pour Crysis, on verra mais je prends le pari que le jeu sera optimisé aussi pour DX 9. Je vois mal Crytek se passer du parc de Windows XP du jour au lendemain.

Et si tu te prends une 7900 GS Zalman ou uneX1950 Pro, tu pourras jouer dans de trés bonnes conditions à tous les jeux qui sortiront dans l’année. Aprés, vers 2008, il sera temps de changer.

On va peut-etre attendre d’avoir des tests concret avant de tirer des plans sur la comete :stuck_out_tongue:

On n’a absolument aucun moyen de savoir à l’heure actuelle si l’architecture G80 sera efficace ou non en usage directX10. Si ça se trouve le machine sera une vrai bombe :neutre:

Toujours est-il que si aujourd’hui on n’a que du 8800GTS et GTX a se mettre sous la dent, il est clair que les gammes vont s’etoffer vers le bas comme à l’accoutumé, ainsi devrait-on voir arriver au fur et à mesure dans les 6 prochains mois les gammes inferieures, jusqu’au quasi-remplacement des G70.

ta comparaison ne tiens pas la route car les geforce FX etait trop en avance et avait mal prevu l’evolution de jeu. par exemple elle ne supportais que le pixel shader en 16 et 32 bit, alors que tous les jeu etait programme directement en suivant les spec que Direct3D qui utilisait les 16 ou 24 bit en presision… du coup il utilisai le 24bit et le driver devait se taper une conversion !

:miam: sens venir le trollage

C’est pas trop mon truc de racheter du matos tout les 6 mois. Ce que j’attend surtout c’est donc la 8600GT, ça devrait carburer avec du DX10, mais y’a pas de dates plus précises que ça ?

C’est clair, le principal soucis pour les GeForce Fx c’était qu’elles ne travaillaient pas en 24 bit, mais en 16 et 32 bit, du coup la conversion faisait perdre du temps. (il faut d’ailleurs noté quand Nvidia avait bien travaillé sur les pilotes pour améliorer ça au fil du temps.

En outre, mais ce n’est aps à shionn que je vais l’apprendre (pour en avoir déja discuté) les nvidia nV 3X (les fx) sont relativement proches des spécifications du ps 3.0 (calcul 32 bit notamment.) il manque certes le branchement dynamique … mais vu les perfs en branchement dynamique des nv4x et G7x, ca ne manque pas vraiment… :smiley:

Bon, je pare le trollage: je ne dis pas ca parce que je serais contre nvidia, mais sachez, pour ceux qui ne sont pas au courant que les archis nvidia nv 4x et g7x ne sont pas adapté au “dynamic branching” à cause de leurs pipelines très longs et du fait qu’elles travaillent sur beaucoup de pixels a la fois. :jap:

T’as quoi actuellement?

Tu joue beaucoup? En quelle résolution? c’est quoi ta config?

Perso, je crois qu’il vaudrait mieux attendre … déja parce que certaines 8800 ont des soucis de fiabilité et parce que les gammes vont s’étoffer et donc les prix diminuer. :slight_smile:

moi j attend pour la simple et bonne raison que ati na pas encore sortie son r600 donc on ne peu pas comparer les perfs pour le moment :ane: donc pour moi se serai acheter une cg dans le vide maintenant si tu prefere nvidia effectivement elles sont deja sortie mais le prix aussi :ane:

oulla j’ai mis 10 minutes à comprendre ce que tu voulais dire … en fait je crois pas que c’est une histoire de longueur de pipeline car il ne sont pas si long que ca. et pis les probleme de branchement et de longueure de pipeline dans une carte graphique ne sont pas les mêmes entre un proc et une carte graphique.

Je pense plutot que tu parle de la taille des thread qui gere les P.S. … qui etait au nombre de 64 chez nvidia et 16 chez ati c’est bien ca ? c’est a dire qu’en gros le branchement est calculer par paquet de pixel … c’est vrai. mais c’est pas vraiment du a la taille des pipelines je pense.

Oui, taille des threads plutot, pardon (j’ai voulu simplifier, mais je me suis planté :whistle: )

Ben la taille des threads est tout de même lié a la longueurs des pipelines.

Vu qu’un pipe long est efficace quand il est plein, il sera plus logique de traiter des threads plus gros.

Un pipe plus court sera plus a l’aise lors des branchements dynamiques (plus rapide pour le vider si besoin) donc, forcément, on utilise des threads plus petits.

Mais il est vrai que c’est très complexe d’expliquer ça “comme ça” car il y a une multitude de paramètre qui entrent en jeu … Les unité de calculs embarquées aussi… plus puissantes sur nvidia (hormis 8800, vu que l’archi n’a plus grand chose a voir avec celles des cartes nvidia précédentes.)

ha ben c’est bien ce que je pensai tu confond le pipeline d’un proc et le pipeline d’une carte graphique … c’est pas la même chose :wink: je t’en parle par mp j’ai assez polué

Pas compris :ane:
ah si c est a cause des threads qui ont un THX dolby system quadriphonics digital lazer :paf:
ok j y vais ===>

Pour revenir au sujet :bounce:

C’est sûr que j’vais pas m’acheter une 8800GTX, ni même GTS, aucune fiabilité, prix n’importe quoi, et premiere, et unique sur le marché. C’est un peu comme les 7800 à leur sorti, tout le monde étaient fou, mais ça valait pas le coup d’acheter quand on voit la suite.

En fait… Moi je voulais une 7900GTO, mais j’m’y suis pris un peu tard :’( donc là j’aimerais juste connaitre une date précise pour les 8600GT, savoir si je dois me morfondre dans ma crasse graphique pendant un bout de temps ou autre.

Pour info, je suis en 6600GT, c’est encore suffisant pour faire tourner les jeux, pas suffisant pour que ça soit beau. D’toutes façons, pour l’instant y’a pas un jeu qui m’attire, et qui ai besoin que ça soit énorme, donc je coucouche panier, et j’augmente tranquillement ma ram en prévision (1Go c’est plus suffisant parait-il :’( ils auront notre peau).

Ah oui… derniere ptite question : Pensez vous qu’avez une alim 500W on puisse s’en sortir pour faire tourner une 8600GT, puis plus tard surement un dual core intel. Pour faire court, j’avais commander mon alim 500W pour accueillir ma 7900GTO… et là jme retrouve balot. C’est grosbill donc retournable, mais quitte à ne pas perdre 10€ et qqls en frais de ports, autant que je la garde si ça fait l’affaire : fortron bluestorm 500W.

oui l’alim est suffisant… pour le 8600, encore rien n’est officiel. mais je pense que le jour ou ATI sortira son nouvelle haut de gamme, alors nvidia sortira les milieu de gamme… donc je pencherai pour fevrier… enfin c’est plus bien long

Ok merci, jvais te faire confiance, de toutes façons jte retrouverait personnelement si l’alim n’est pas suffisante :jap: