Pixel shader

Bonjour à tous
alors voila quand je lance le jeux Lost PLanet Extreme Condition, voila se qui s’affiche :

“err06 : unsupported pixel shader version detected. 2.0.”

je ne comprends vus ma carte graphique.
mais j’ai formater et me suis monter se pc il n’y a pas très longtps, donc peut etre un problème de mise à jour.

pour ma configuration voir ma signature.

asus P5b-e
ATI Radeon X800XL 512Mb : www.clubic.com…
2Go de ram

Merci par avance.

Coucou,

c’est tout a fait normal les X800 ne gerent que les pixels shaders 2.0 alors que lost planet demande au minimum une carte graphique qui gere les pixels shaders 3.0 !

Ta CG est trop ancienne pour jouer à Lost Planet, il faut une CG avec PS 3.0 minimum (X1xxx ou Geforce 6/7)

arf qu’el déséspoire.

et la carte qui gere du 3.0 et du directx 10 que vous pouriez me conseiller en restant dans un budget raisonnable ?
car le guide d’achat clubic c’est marrant mais rien en pci e dans les gammes de 200€.
Edité le 22/08/2007 à 11:34

pour - de 200 euros ça vaut pas le coup de passer en DX10, prends plutôt une bonne X1950pro ou XT.

C’est simple, soit tu prends une carte qui gère le Dx10 pour 200€ a savoir une serie HD 2600 ou Geforce 8600.Soit tu prends une X1950 qui gère que Dx9 mais qui offrera de meilleur performances que ces précédentes.

Les seules cartes qui vallent le coups sont les 8800gts et supérieur et a la limite les HD2900 pour Dx10 mais prévoit au mins 100€ de plus :smiley:

PS: on ne connait pas les capacités des cartes actuelles dx10 sur un jeux l’exploitant entièrement…(crysis…) donc ne te précipite pas, peut etre qu’elle seront a la traine très rapidement.
Edité le 22/08/2007 à 11:43

oui mais dans 2 mois je devrais changer pour passer en DX10 donc voila.
tu en penses quoi ? attendre un peu avant de changer de carte graphique ?


mais ma carte actulle n'est qd mm pas complétement dépassé ?

je joue à presque tous les jeux au max.

Pour 200 euros même dans 2 mois ça ne suffira pas.
En fait tu as 2 possibilités:

  • tu achètes une bonne CG DX9 qui fera quand même tourner les jeux DX10 normalement (certes ce sera moins joli mais bon…)
  • tu attends que les jeux DX10 sortent histoire de savoir à quoi s’en tenir niveau perfs avec les CG DX10

3ème solution économise pendant 2mois 100€ et prend un 8800 gts :super:

En sachant que Crysis sort mis novembre, il serait interessant d evoir les performances des cartes Dx10 actuelles avant de se précipité a claquer 200€.

merci de tous vos conseils
je vais donc attendre un peu et voir comment ca se passe.

bonne journée.

Dans ce cas là , autant carrement attendre Novembre ou décembre pour acheter une carte DirectX10.1 avec PCI Express 2.0 !
Se genre de carte sera apparement totalement compatible directX 10.1 avec Vista Sevice Pack 1 (ou directX 10.1 sera livré dans ce nouveau pack 1) qui supportera otomatiquement l’Anticrénelage . Je pense que les 8800 GTS / GTX ne valent que dalle pour l’instant , car ce sont des cartes qui auront servi de transition entre Direct X 9 et 10 , donc elle serve un peu comme un test .

Le pb des CG PCIe 2.0 c’est qu’on ne sait pas si elle passeront sur le PCIe 1.1 à cause de la puissance électrique (le bus PCIe 1.1 fournit 2x moins de puissance que le PCIe 2.0, 75W contre 150W je crois).

Ouais , mais sa me ferait bien mal d’acheter une carte 8800 GTS chère pour ne pas exploiter pleinement directX10.1 qui est en phase de sortir avec le service pack 1 . Je me suis déjà dit que windows Vista sans un premier service pack ne sert à rien , le fait d’acheter un carte graphique direct X 10 à 300 euros qui n’est pas au point est pour moi qui ne vaut pas le coup .


D'un autre coté , c'est vrai que si les nouvelles cartes graphique PCI -Ex 2.0 ne peuvent pas aller sur un port PCI-Ex 1.0 , sa serait pas terrible .. Edité le 22/08/2007 à 14:44

Slt! Je te reprends les carte dx10.1 seront compatible PCIE 1.1 il est vrai que le port fournit moins de puissance mais deja les Geforce 8XXX sont alimenter par l alimentation directement, pour suppléer au port pcie qui ne fournit que 75W.
Ce sera pareil pour les geforce 9
Edité le 22/08/2007 à 14:49

Alors c’est cool sa , par contre t’en est sur que la fréquence du port est la meme ?

C’est justement la question que je me posais, les CG PCIe 2.0 auront-elles autant de connecteurs d’alim que les 8800 et les HD2900?

Bien en fait de ce que j ai compris ca dépendra des gammes (forcément) et les haut de gamme seront sur les alim à 8pins le reste en 6. (ce ne sont ecore que des rumeurs).
PCIE 1.1= 75W (et ici il faudra forcément combler le manque de jus pour nos jolie futur G9XXX)
PCIE2.0=150W + double de la bande passante PCIE1.1

La fréquence par contre j en sais rien mais il est sur qu il y aura une retro-compatibilité donc si c est le cas sa ce fera en auto…
Edité le 22/08/2007 à 15:10

Exact, j’avais oublié que le connecteur d’alim sera différent (8br)

Aucun problème, c’est négocié automatiquement par le hard, comme pour le SATA1/SATA2.

Donc ,sa veut dire que les PCI Ex 2.0 pourront marcher à 100 mhz comme les PCI E1.0 , parce que ma carte mère P965 ne pourra pas cadencé le PCI-Ex 2.0 à 200 mhz ?
Edité le 22/08/2007 à 15:24


En tout cas , si le PCI -EX 2.0 sera compatible sur mon P965 , je croit bien que je me prendrait une 9800 à Noel .

Normalement oui, mais attendons la sortie des CG PCIe 2.0 pour en savoir plus.