Remplacement CG HD 2900 xt par HD 6850 ?

Ça devient quand même limite une 2900xt… elle se faisait déjà violenter par les 8800 gts de première génération…

Ouais enfin faut dire que les 8800 c’était des bonnes cartes à l’époque !

Sinon +1 pour un petit o/c sur l’Athlon, il s’overclock très bien :).
Edité le 02/11/2010 à 22:21

Sa dépend du modèle aussi, les 1Go gddr5 se débrouillait pas mal

GDDR4 tu veux dire je pense. 1 Go ne servaient quasiment à rien, et même aujourd’hui, 1 Go sur HD 2900 (=> HD 3850/70 => HD 4670 => HD 5570). Et le fait d’avoir de la mémoire GDDR4 sur bus 512 bit ne change rien dutout sur ces cartes, un bus de 256 + GDDR3 est presque de trop sur cette carte, au point que ATI à diminué la bande passante des cartes HD3xxx, HD4xxx, HD5xxx et on est là aujourd’hui, avec des cartes 1600 SP sur bus 256 bit + GDDR5 (320 SP sur HD2900).

1/ 192 bit + GDDR3 aura certainement été parfait ou proche du parfait sur les HD2900.
2/ 1 Go est presque de trop également, la carte ne peut pas vraiment exploiter plus de 500 Mo sans ramer.
Edité le 03/11/2010 à 01:25

+1 déja que cette génération / architecture n’était pas top a l’époque… :confused:

Voici un benchmark de CoDMW2, la HD 3870 (qui est un poil meilleur il me semble) est présente sur le comparatif et atteint déja ses limites en 1280x1024 :neutre:

edit2: elle est meme présente dans le mega-comparatif de 30 GPU sur pc-world.fr et je ne donne pas cher de sa peau ! :stuck_out_tongue:

edit: Concernant la 2900 XT effectivement ce n’était pas de la ddr5 mais bien de la ddr4 --> voir lien
Edité le 03/11/2010 à 01:50

il y a une limite à l’évolution. Tout ne peux pas être évolutif. Mais reste que son PC pourrait par la suite prendre un quad phenom à bas prix, et ce sera la derniere évolution de sa cm, (sauf rajouter pour avoir 4go de ram). Déjà un PC quad (les Q6600) sont encore super bon, alors un Phenom II x4 d’ici 2 ans c’est surement encore bon :slight_smile:


[quote="ManuKey"] [quote="dam42c"] [quote="v1rus_2_2"] [quote=""] Car je crois que l'alim et la plateforme devrait etre changer avant puisqu'une 2900XT peut encore avoir quelque chose dans le ventre encore aujourd'hui. [/quote] +1, je confirme, la HD 2900XT en a encore dans le ventre (à moins qu'elle ait cramé)

C’est quoi ton budget?
[/quote]
Ça devient quand même limite une 2900xt… elle se faisait déjà violenter par les 8800 gts de première génération…
[/quote]
+1 déja que cette génération / architecture n’était pas top a l’époque… :confused:

Voici un benchmark de CoDMW2, la HD 3870 (qui est un poil meilleur il me semble) est présente sur le comparatif et atteint déja ses limites en 1280x1024 :neutre:

edit2: elle est meme présente dans le mega-comparatif de 30 GPU sur pc-world.fr et je ne donne pas cher de sa peau ! :stuck_out_tongue:

edit: Concernant la 2900 XT effectivement ce n’était pas de la ddr5 mais bien de la ddr4 --> voir lien
[/quote]

le bench est vraiment pas bon. une HD3870 est aussi performante que la 8800GT 512mo. dans le test la x1950XTX fait aussi bien que la HD3870, et c’Est très anormal.


et GTS 250 fait auss ibien qu'une HD4870? Oulala moi j'y crois pas.
[www.techspot.com...](http://www.techspot.com/article/219-cod-modern-warfare-2-gpu-performance/page5.html)
et sa c'est en 1680x1050, la HD3850 est pratiquement limite, alors la HD3870 serait bien meilleur que la HD4670. hors regarde la 9600GT, la HD3870 devrait se retrouver entre elle et la 9800GT ;)

Non, dans ton test la HD 3850 est un bon 20% en dessous de la HD 4670 qui elle même est 10% en dessous de la 9600GT donc la HD 3870 doit faire jeu égale avec la 9600GT environs ce qui n’est vraiment pas fameux pour les jeux aujourd’hui :neutre:
Edité le 03/11/2010 à 14:07

C’est à peu près ça, la 9600 GT équivaux aux plus haute dénominations des HD2900/HD3800/HD4600/HD5500 environ.


C'est du même ordre en tout cas à quelques toutes toutes petites dizaines de pourcents près bien sûr.
En tout cas, les simple HD 5700 sont quasiment 2X plus perf que les 9600 GT/ HD 2900 et équivalent, alors les HD 6850 ...
Bien sûr, sans compter le gain en consommation, le passage du 80 nm au 40 nm changera déjà tout. :)
Les gains à espérer en passant d'une HD2900 à une HD 6850, c'est :
  • Consommation réduite de 50% grand minimum
  • Puissance de calcul pratique en condition réel => au moins 3X 2,5 X :smiley: plus de perf minimum
    Edité le 03/11/2010 à 16:57

perso, pour avoir testé, la HD3870 = plus ou moins la 8800GT 512mo. De plus, la 8800GT est plus performante que la 9600GT.

mais en fait c’est sur qu’avec 2, 4 ,8 x AA, les séries 2900 n’était ps très forte. messemble-t-il que la série 3k était un peu mieux. Mais bon, une 2900XT, sans AA, sa tiens encore la route pour la plus part des jeux. Jamais je croirai qu’en 1280x1024, sa rame a fond xD. ma 8800GT en 1280x1024, c’était Very high sous crysis sans problème.

Je confirme tes dires sylvio50, d’après le comparatif de PC-WORLD.FR ce serait un gain de 3 X en performance réel! :pt1cable:

En tout cas en 1680*1050 AA4X la HD 3870 = 24 fps de moyenne VS. GTX 460 1Go (± HD 6850) = 70 fps de moyenne.

D’après les tests que l’on peut trouver sur Crysis, en VH / 1280x1024 / no AA / DX9 --> ça ressemble plutôt à:

24 fps de moyenne pour la 8800GT et 22 fps de moyenne pour la HD 3870… http://www.extremetech.com/article2/0,2845,2222416,00.asp
Edité le 03/11/2010 à 17:54

une 6850 et une alim potable, garde le reste ça tourne très bien, pour ma part j’ai un X2 245 @2.9 Ghz et pour les jeux auxquels j’ai joué (avec une 5830 donc moins puissante qu’une 6850) : Bioshock 2, StarWars Le Pouvoir de la Force 1&2, AlienvsPred, DragonAge, StarCrafT 2…tout à fond de chez à fond dans le jeux (je bidouille pas dans les pilotes) en 1680X1080, donc le CPULimited je le voix pas et si tu joues en plus en 1920 ben tu le verras encore moins :jap:
Edité le 03/11/2010 à 17:57

:ouch:
mayrde, je faisais ça en 1680x1050 avec un athlon X2 6400+ et ma vieille HD 2900 XT 1go gddr4 (je sais, l’autre me suis fourray avec ce que j’ai présentement :o )

même avec une HD 5770 sa passerait tous à fond

chose sur, en 16801050, avec ma 8800GT, c’était parfaitement jouable en high medium, et très jouable en very high en 12801024. Sa reste de vieille carte, mais faut pas déconner nom plus, pour un gamer qui s’en fou de mettre 8x AA, sa peut encore tenir 1 an voir 2 sans trop de problème… Après tout, c’est la résolution qui va faire toute la différence, et quelque graphique qui peuvent être baissé en medium. en 1920*1080, il est clair que ces cartes ne sont plus suffisante, mais au prix ou on paye le matériel, souvent on aime l’utiliser au maximum :slight_smile: