ATI/NVIDIA : les cartes DX 10 - R600 vs G80

Non, elle aura deja l’immense avantage de proposer enfin une concurrence sur le marché :neutre:
Je ne considérerais pas perso les X2900 mais les X2600 et X2300 qui constitueront le gros des ventes et qui seront les cartes les plus intéressantes :wink:
Et comme de toute maniere d’ici 6 mois on a une X2900GTO aussi perf que la XTX mais 2* moins cher la ca devient intéressant [:shy]

aprés tout ce temps si elle est juste supérieur de 20-30 % c’est inutile :neutre: (pour citer engtx) !

la 8800GTX et nVidia resterons devant si c’est vraiment le cas je pense :neutre:

Enorme déception

Que d’attente, que de suspens, pour si peu finalement… :confused:

+10 :frowning:

Hey ho cay peut être un fake, arrêtez de gémir, la carte n’est même pas sortie :riva:

:MDR

Je demande des tests avec de vrais résultats :jap:

Il ne faut jamais juger avant le "vrai" produit …

Rappelez vous le nv30, annoncé comme le messie… :ane:

Sauf que l’inverse se produit quand meme rarement :neutre:

Par experience je n’ai jamais vu de carte dont les premieres infos ne donnant pas d’enormes perfs faire au final une vrai boucherie en explosant tout sur son passage :neutre:

S’il est vrai qu’on a souvent eu des machins annoncés comme terrribles et finalement tout pas top, l’inverse n’a jmais vraiment eu lieu à ma connaissance.

Tout à fait :jap:

Mais je suis comme ça, je préfère attendre les tests avec des cartes définitives. :neutre:

Vaux mieux pas s’enflammer :stuck_out_tongue:

Si cay vrai j’aimerais mieux prendre une GTX :neutre:

Sa te rappel pas une certaine 7800GTX sa ;)…

7800GTx, 6 mois après, une x1800XT 512mo, ensuite la 7800GTX 512mo, puis ATI sort les x1900, et éclatte nVidia… ensuite nVidia a eu du mal a reprendre du marché…

Sur le test, les driver ne sont meme pas finalisé… puis, les test ne sont pas officiel… sa la pu etre fais en 1024768… j’ai bien hate de voir en 19201200 :paf:

Ne pas oublier que ATI ont seulement 64 shader, alors que nVidia en ont 128… donc la meme perfo pour la moitier d’unité… Puis ils disent sa consomme… 240w, c’est le thermal design power… sa veux pas dire quel pousse 240w a elle seul… Sinon, 240w + 110 dison un 4400+, + la mobo qui doit prendre un bon 100w mini, + 10-15w chaque DD… sa fais deja pres de 500w, si ta machine ets en full… la carte, comment pourrait-elle consommer 240w, alors quel va etre en 80nm… et si elle utilise GDDR4… :neutre:

Désolé, mais moi j’attend les test… Les gens peuvent dire n’importe quoi, c’est pareil pour n’importe quel compagnie… Sa peut s’annoncer une tuerie et sa l’est pas, comme sa peut l’etre… Regarde le P4… Bouze total, mais le C2D est vraiment puissant…

:wink:

oui et ?

Avec son avance nVidia peut parfaitement sortir une evolution du G80 qui ridiculiserai un R600 :neutre:
C’est comme ça depuis toujours, si tu sors un GPU 6 mois apres mais qui n’apporte que que tres peu par rapport à la concurrence en terme de perf tu court le risque de te prendre un retour de baton du fait de ton retard.
6 mois en terme d’evolution GPU c’est enorme, et quand arrive avec tellement de delais apres le concurrent tu as interet à faire la nettement difference sous peine de courrir apres jusqu’au prochain changement d’architecture (tous les deux ans environs), il n’y a qu’à voir combien de temps nvidia à mis pour se remettre du cas Geforce FX …

Et alors ? qu’elle en ai 64 et l’autre 128 ça change quoi? au final ce qui compte c’est que ça tourne plus ou moins bien dans les jeux (me parle pas de 3DMark qui pour moi n’a aucune valeur), tu n’achete pas une carte en te disant: “ouai j’achete celle-là parcequ’elle fait aussi bien que l’autre avec 2 fois moins d’unités”. La plupart du temps la façon dont ça tourne en interne on s’en fiche completement, car au final ce sont les FPS dans tes jeux qui comptent et rien d’autre.

Le P4 est loin d’etre une bouze, c’etait juste un pari sur une evolution technologique qui n’a pu se faire à cause des contraintes physiques imprevisible à l’heure de sa conception. Sans ses contraintes on aurait peut-etre du P4 à 5 voir 6 Ghz qui exploiserai un C2D … Il ne faut pas reduire les choses de cette maniere :wink:

:jap: P4 @ 5 Ghz

http://www.youtube.com/watch?v=FPSZXmLdPno

De ce que j’ai vu il me semblait que la R600 allait être une bombe? Pas ben ben plus que la GTX, je voit pas son intérêt encore sauf p-e si tu joue sur 2 écrans de 22"

:heink:
fo arreter de speculer pour le r600 on ne connais pas encor les perfs de la 8800 sous dx10 idem pour le r600
Donc jusqua cette heure il fo arreter de tirrer des conclusion trop rapides :jap:

lorsque les rumeur d’intel parraissait tout le monde disait que c’etait du charabia :super:
mais il c’est avéré que les rumeur soit vrais :slight_smile:

ATI aurait sortie avant le R600 sa aurait fait un tabac :super: mais les chose se sont passer autrement …

sa c’est qu’il y avait eu des proco ES… alors que la, personne ont un R600, qu’il peut vraiment publier… Moi j’attend les test officiel… et +1 pour les perf sous DX10…

http://www.overclex.net/news/3539/NVIDIA-8…et-8800-GX2-%3F

d’apres un autre site l’ultra serait 30% pus rapide qu’une gtx et la gx2 50%.

humm pour le r600 ca sent le crame enfin wait and see…

Ca reste cher :neutre: mais c’est ce qu’il faut pour contrer le R600 alors wait’n see au 17 Avril

ca va faire mal si c’est vrai :sarcastic: