Forum Clubic

X2 4400+ : bientôt à la ramasse ? - Target : Crysis (page 3)

Ouai enfin vu que Crytek risque d’etre racheter par EA :whistle:

Ta aussi de la chance que Fear soit optimisé pour Nvidia :paf:

qu’il soit optimiser ou pas, sa ne fais pas grand difference…C’est que du pure marketing, simplement pour dire, acheter se jeu et si vous avez une carte ATI ou nVidia, tout ira nikel. Il y a seulement quelques jeux que c’etait vraiment optimiser pour: je parle de Doom 3 et la serie 6800 de nVidia :D, entr’autre .

Comme Prey pour ATI, mais bon, moteur de doom3, c’est pas nVidia? Ou half-life 2 episode 1, nVidia, mais c’etait pas ATI?

Il se font juste payer pour que leur logo apparaisse (Publiciter ;)), mais comme je dit, quelque jeux sont optimiser pour tel carte etc… le moteur Source, nVidia ont travailler avec Valve, pour que le HDR ne soit pas coder en FP16 ;), alors, les carte sm 2.0 peuvent faire le full HDR :pt1cable:

Fear est optimisé Nvidia et ca tout le monde le dit :sarcastic:

D’abord vous n’êtes même pas en 1280 (qui possède encore des crt ici? lol)

La x850 n’a pas le HDR.

Et 15-20 images par secondes c’est déjà à gerber pour un rpg, alors pour Crysis…

Une carte haut de gamme acheté maintenant, settings en médium et du 1024 baveux dans un an.

:neutre:

JE tourne en 1280 et cela meme dans fear :sarcastic:

En plus, les cg que l’on a maintenant, ne sont meme plus optimiser 1024768… 12801024 commence a devenir la norme :wink:

Oblivion passe carrément bien avec une 7800gtx, voire un gt, mais 20 fps ça n’est pas jouable, c’est faux. Et encore moins pour un jeu d’action! Sans compter que ça tombe dès qu’on a deux ennemis à l’écran… l’horreur quoi.

Pour la synchro, les fps s’alignent sur la fréquence de ton écran: soit environ 75 ou 85 fps. On est loin des 25 quand même.

xct: FEAR est moins gourmand qu’Oblivion, c’est pas une référence.

Franchement en admettant que Crysis sorte en mars 2007 (ce dont on est en droit de douter), et sachant que ce sera certainement un jeu très exigeant comme Far cry en son temps, il faudrait acheter une petite bombe maintenant pour espérer le faire tourner avec les graphisme à fond (sans quoi je ne vois plus l’intérêt de se poser la question).

twyll, ma config date d’il y a un an et, pour l’instant, je passe tous les jeux au maximum avec les filtres activés (FEAR en 1280x720 aa 4x aniso 16x, CoD2 en 1280x720 aa 4x aniso 16x et même la démo de Dark Messiah en 1920x1080 aa 4x aniso 16x sans ramer ; pour Oblivion, je ne saurais dire, car je l’ai pris sur xbox 360…).
C’est pour ça que, dans l’absolu, ma config n’a pas besoin d’être upgradée pour le moment. Mais bon, si la production de proco s939 s’arrête… :neutre:

Tkt pas le jour où tu ne trouveras pas de X2 en S939 n’est pas encore pret d’arriver :jap:

J’ai voulu acheter un x2 4800 chez *****. (j’ai le droit de balancer le nom??) et ils m’ont répondu qu’ils n’auraient plus de x2 avec 2 x 1 mo de cache L2 car AMD ne les fabriquait plus :ouch:

Donc je me suis rabattu sur un x2 4600 :neutre:

tu peux balancer les noms :oui:
et pour le 2x1Mo de cache, ils ont raison :neutre: hélas :confused:

j avai un p4 530 HT ( 3GHZ ) il ma fait 2 ans sans probleme, et il aurai encore pu me faire les 6 mois a tenir jusqu a vista, je vien de prendre un x2 4600 y a 1 semaine, et ej suis tres content de la puissance qu il m apporte, ma carte graphique a gangé 10 % sur 3d mark, et pui quand on regarde la différence des x2 et conroe sur les bench, il est sur que le conroe l emporte, mais y a quand meme pas trop de différence, y a moin du difference que entre la serie des 900 et un x2.
donc pour moi, quelque soit le choi entre un x2 ou un conroe, il fera plus de 2 ans sans probleme, surtout quand on voi la ddr2 qui n apporte rien, j ai vu un test qui montré que un kit de ddr2 800 ( 4.4.4.12 ) été équivalent a un kit ddr1 400 ( 2.2.2.6 ) alors pour ceux qui ont de la ddr400, rarder là et prené un x2 en socket 939.

Si tu dois mettre à jour ton système 939 une dernière fois, le 4400+ est à mon avis une très bonne solution.

Il en reste plein, il suffit de chercher. On trouvera les 939 pendant encore un an, et il y aura moins de choix les six derniers mois.

je suis d’accord avec toi la ddr2 n’apporte rien mais les C2D marche bien mieux que les X2 d’amd. maintenant c vrai que les prix sont different : environ 250-300 € pour le proco et autant pour de la bonne memoire.

Le socket 939 est mort, vive le socket 939 :smiley:

Tu veux parler du proco ?

Tu es content de ton nouveau X2 3800+, sinon ? Tu as ressenti du changement sous les jeux ?

Je pourrais peut être avoir un X2 4200+ pour pas trop cher, pensez vous que le "manque" au niveau du cache L2 (2x512 ko contre 2x2Mo pour les Core 2 Duo) puissent se ressentir à terme dans les jeux ?

Pour le jeux, sa ne risque pas d’etre un gain de 40fps (en haute resolution si tu as un bon x2), mais pour le reste oui :stuck_out_tongue:

Correction: ce n’est pas 2*2mo, c’est soit 2mo ou 4mo, car c’est du cache L2 partager :jap:

Moi Oblivion, sa me fais penser plutot a un jeu trop gourmand, a cause justement le fait que la map est grosse . Avec quelques chargements, je suis sur qu’il serais moins gourment (a l’exterieur)… Pour ce qui de 20fps, Joue a un jeux d’action a 20fps constant, et sa ne ramera pas. Avec mon ancienne 6800GS, 1280*1024 Half-life 2 episode one, au max, sa me donnais 20 fps minimum, rarement sous les 20 fps, quelque fois 30-40, et sa tournais parfaitement. Sa SERT a RIEN d’avoir 200fps, tes yeux ne sont meme pas capable de voir toute ces images, ten voit genre 15-30 max par seconde… Alors vien pas me dire que 20-25 FPS constant c’est pas jouable :MDR.

P.S. J’ai jouer a Oblivion avec des 20-25 max FPS a l’exterieur, et sa tourne bien…

je suis d’accord avec toi sauf sur le “tes yeux ne sont meme pas capable de voir toute ces images, ten voit genre 15-30 max par seconde…”

tien bonne lecture :
http://www.nofrag.com/2003/nov/24/8629/