Sondage: 8800GT ou HD3870 . Votre choix

Un sondage uniquement , pas de débat .

Mettez GT pour la Nvidia
OU
HD pour la Ati

Plus quelques Arguments pour compléter votre choix ! Merci

(dommage qu’on ne puiss plus faire de vrai sondage!:arf:)

encore indecis pour ma part j’attends de voir les solutions fanless

tu t’est pa tromper entre hd3850 et hd3870 :ane:

ne se prononce pas :jap:

étant donné le sujet :na:

C’est pas plutôt 8800 GT vs HD 3870 ???
Sinon moi je suis toujours indécis …
Edité le 16/11/2007 à 17:34

Je dirais GT

Même si la HD 3870 semble très bonne, avec un excellent rapport qualité/prix, je garde l’impression que nVidia garde une longueur d’avance malgré mon attirance pour la marque d’AMD.

Une longueur d’avance niveau performances, en sacrifiant les détails visuels, oui :jap:

Je voulais m’acheter une 8800 GTX mais finalement je vais prendre la 8800 GT & la HD 3870.

Mon probleme d’indecision est regle une fois pour tout!

Oui HD3870 je suis bete !!! :ane::ane::nexath

Mais les derniers pilotes ne règlent-ils pas les problèmes de détails ( eau … ) ??
J’ai vu un test sur Internet qui disait ne voir pas de différence de qualité d’image entre les deux …
Edité le 16/11/2007 à 20:06

c’est sur quand terme d’iamge on voit pas la difference.

Ben ouai, mais bon laissons troller :paf:

Une optimisation de driver ca consiste à désactiver certaines choses inutiles pour améliorer les perfs, alors oui sur le papier le jeu est moins beau, mais en pratique on ne voit aucune différence.
En tout cas c’est le cas avec les derniers 169.09, que je modifie ou non l’executable l’image est strictement la meme.
Edité le 16/11/2007 à 19:37

Je ne vois pas où est le troll, mais bon …

Il y a un truc fantastique quand même:

Quand nvidia désactive des détails visuel (ou réduit la qualité des effets), même si cela ne nuit pas à la qualité finale de la scène), c’est de l’optimisation, mais quand ATI procède de la même manière, c’est de la triche … Donc, bon [:siffle]…

Et désolé à partir du moment, ou les effets sont traités avec une précision moindre, je n’appelle pas ça de “l’optimisation”, mais plutôt un “palliatif au manque d’efficacité de l’archi” … (cf GeForce FX :ane: )

Je persiste à dire que ce n’est pas en plein jeux qu’on va s’apercevoir de la différence …

Par rapport à ce que j’appelle de l’optimisation ou non, voici un petit exemple:

Admettons qu’un jeu ait besoin de calculer un effet par pixel sur 8bits pour chacune des 4 composantes (R, G, B, A / Rouge, vert, bleu et la couche de transparence alpha).

  1. Admettons, ensuite qu’un driver “optimisé” oublie tout simplement de prendre en compte la couche alpha, du coup, le processeur graphique, se retrouve a devoir calculer que 3 composantes (soit 24 bits) et non 4, du coup, tout les 4 cycles de calcul, on se retrouvera avec 1 pixel traité en plus, seulement et même si la qualité visuelle n’est pas affectée, le traitement n’est pas correct (alors oui, l’utilisateur final s’en moque, mais quelque part, il y a un truc qui ne colle pas …

  2. Par contre, admettons que par une astuce de programmation (et selon l’archi du gpu), on puisse s’arranger pour optimiser le fonctionnement des shaders core de façon à les faire travailler plus efficacement et traiter les 4 composantes plus rapidemement (mettons 3/4 de cycle pour chaque), on arrivera alors au même résultat niveau vitesse d’execution que dans le cas 1), en ayant un fonctionnement réellement optimisé.

Même si là encore l’utilisateur final s’en moque, le fonctionnement dans le cas sera considéré comme meilleur, car plus “propre” et plus “élegant” :jap:
Edité le 16/11/2007 à 20:11

Je crois pas avoir dis ça :wink:
Un exemple
A quoi bon calculer une ombre située à une distance telle qu’on ne la verra pas ? Autant ne pas la calculer
Alors oui au final ya moins de boulot et c’est moins “beau”, mais est ce que ça a réellement un impact sur la vision du jeu, je ne pense pas :neutre:

Moi si un constructeur se permet de couper quelques effets gourmand sans que cela ne gache la globalité du jeu, ben je dis pas non :super:

Et j’ai dis que c’etait un troll parceque tu n’apportes aucun screen, tu ne précises aucune version de drivers ni n’apporte de détails, c’etait juste une pulsion"ouai toute facon l’image est pas belle :o" :paf:


[quote="juju251"] Par rapport à ce que j'appelle de l'optimisation ou non, voici un petit exemple:

Admettons qu’un jeu ait besoin de calculer un effet par pixel sur 8bits pour chacune des 4 composantes (R, G, B, A / Rouge, vert, bleu et la couche de transparence alpha).

  1. Admettons, ensuite qu’un driver “optimisé” oublie tout simplement de prendre en compte la couche alpha, du coup, le processeur graphique, se retrouve a devoir calculer que 3 composantes (soit 24 bits) et non 4, du coup, tout les 4 cycles de calcul, on se retrouvera avec 1 pixel traité en plus, seulement et même si la qualité visuelle n’est pas affectée, le traitement n’est pas correct (alors oui, l’utilisateur final s’en moque, mais quelque part, il y a un truc qui ne colle pas …

  2. Par contre, admettons que par une astuce de programmation (et selon l’archi du gpu), on puisse s’arranger pour optimiser le fonctionnement des shaders core de façon à les faire travailler plus efficacement et traiter les 4 composantes plus rapidemement (mettons 3/4 de cycle pour chaque), on arrivera alors au même résultat niveau vitesse d’execution que dans le cas 1), en ayant un fonctionnement réellement optimisé.

Même si là encore l’utilisateur final s’en moque, le fonctionnement dans le cas sera considéré comme meilleur, car plus “propre” et plus “élegant” :jap:
[/quote]

Pour le 2) je pense plutot que cela incombe au dev du jeu, c’est eux qui adaptent leur moteur aux GPU :confused:
ATI et Nvidia ne peuvent à mon avis jouer que sur ton 1), mais bon je ne vois pas en quoi cela te gene que le traitement soit tronqué si au final tu ne vois aucune différence :neutre:


Moi Nvidia peut désactiver tout ce qu'il veut pour gagner en perfs, tant que derriere mon écran je vois pas de différences je dis allez louia :d

Tout simplement par-ce-que ca trompe les benchs; par-ce-que Nvidia (je simplifie, marre de tout taper) ne donne pas la qualité vidéo maximale tandis que ATI le fait, les FPS d’ATI tombent tandis que nvidia se maintient, et donc si par la qualité elles sont incomparable on ne peut pas comparer le nombre de FPS, et que donc on ne peut pas juger objectivement des perfs des 2 cartes.

pour juger reelement de leurs performances il faudrait obtenir le même niveau de détails sur les 2 cartes, donc soit égaliser par le haut, soit égaliser par le bas, puis comparer les PFS. Comme Nvidia n’a pas de pilotes qui lui permette de monter sa carte au niveau des ATI (niveau qualité graphique), et qu’Ati n’a pas encore eu le temps d’optimiser parfaitement les siens pour les ramener au niveau Nvidia (pour monter les perfs), on n’a pas encore de bench 100% exact.

Pour comparer 2 choses, par définition, il faut la même base de référence, sinon les statistiques sont faussées.

C’est un peu comme les couleurs sur 16bits et 32 bits, on voit pas la différence mais elle est là, sous 32bits plus de boulot mais sous 16 bits plus de fps. Or qui oserait comparer une carte limitée a 16 bits de couleur a une carte qui permet 32 bits ???
(je sais que l’exemple n’est pas génial niveau historique, mais bon, j’ai pas mieux sous la main)
Edité le 16/11/2007 à 21:25

+1


et quand on voit le test de Hardware.fr ( qui ont corrigé le problème de l'eau ) sur Crysis la 8800 Gt domine et de loin ...

Oui je suis tout à fait d’accord :jap:
On peut donc conclure que 8800GT et 3870 sont peutetre de meme puissance, mais bon n’empeche que la 8800 permettra de jouer plus aisément :neutre:

C’est la que j’ai envie de dire, sans maitrise la puissance n’est rien :paf:

C’est un peu le duel MacDo-Resto:
moins beau, moins bon mais plus a bouffer, c’est la Nvidia …
plus beau, meilleur mais moins a bouffer; c’est la Radeon …
La seule différence étant qu’ici, le Macdo est plus cher que le resto … :MDR

Faut voir ce que ca donne a l’avenir, si la geforce se hisse au niveau graphique de la Radeon, ou que la Radeon passe ses FPS avant la definition, on pourra alors comparer les FPS, mais avant ca me semble un peu facile.