Qui pense comme moi ?

qui pense que quand directx 11 sortira ainsi que les jeux optimisé pour comme : www.clubic.com…

Les carte Ati sont mettre leur raclé a nvidia vue que directx 11 : a des améliorations de directx 10.1 ce que nvidia n’ as pas mais ATi oui

donc logiquement Ati avec les 3xxx et les 4xxx ces cartes seront mieux que actuellement

Si le but est de faire une guerre ATI-nVidia ça va pas durer longtemps… :sarcastic:

Pas moi , car les cartes graphiques de type 3xxx et 4xxx de maintenant ne sont et ne seront jamais compatible DX11 !! tu ne pourra même pas l’activer…! il te manquera pas mal d’instructions "hardware tessellation, multi-threading et Shader Model 5.0… " !

Tous ça me rappelle l’époque des SM2.0 et SM3.0 sans parler encore de DX…

ha ouais www.presence-pc.com…

"“Les jeux DirectX 11 seront compatibles avec les cartes DirectX 10 et 10.1"”

Ben ouai !! comme les jeux DX10… ils etaient quasiment tous compatibles avec des cartes DX9

““d’ailleurs, Microsoft a même affirmé que DirectX 11 apportera de nouvelles fonctionnalités aux cartes DirectX 10, sans que l’on sache lesquelles.””

LOL tu crois que ta carte va prendre 50% de puissance en plus…
Edité le 08/07/2009 à 10:39

non, quand meme pas

mais quand un jeu se mettra en direct 10 sa sera plus ou moins le 10.1 donc Ati aura de meilleur performance ?

Ferme vite :paf:

ne rêve pas :wink:
Le jour où ils arrêteront de coder les jeux avec les pieds ce sera déjà un grand pas (heureusement ce n’est pas le cas de tous les jeux), alors tirer parti des évolutions de DX10, 11, etc… on n’y est pas encore (et en supposant que ces évolutions apportent réellement quelque chose, ne pas croire systématiquement les discours marketing de MS, ATI ou nVidia)

Le temps nous le dira :wink:

+1

+1

  1. Ce que je voulais dire c’est que certaines instructions sont déjà présentes chez certaines cartes graphiques rouges (La tesselation par exemple) :jap:
  2. J’ai l’air d’une buse? :neutre:
    Edité le 08/07/2009 à 11:24

Non désolé le N° 2 n’était pas pour toi, mais pour le fond du sujet de ce topic :jap:

Le fait que certaines fonctions soient “cablées” ne veut pas dire qu’elles soient compatibles avec l’implémentation choisie dans DirectX.
ATI pourrait mettre toutes les fonctions qu’il veut si l’appel de ces fonctions n’est pas le meme que celui mis en place par MS dans DirectX alors tout cela n’est que du vent et ne servira à rien (sauf pour le developpeur qui voudrait coder un truc specifique aux cartes ATI, mais faut pas rêver ça ne se fait plus ça).
Et à ma connaissance les fonctions de tesselation de dX11 ne sont pas des copier-coller de celles intégrées par ATI dans les cartes DX10.x, donc cet avantage est loin d’en être un.

Enfin, faut vraiment marcher avec des oeillères pour penser que Nvidia va rester les bras croisés à attendre que ATI fasse mumuse avec DX11.
Ce n’est pas parce qu’Nvidia n’a pas sortie de carte DX10.1 qu’ils ne seront pas capables de faire un chip DX11 du niveau de la concurrence (voir mieux, après tout en perf pures les GPU GT200 restent devant les GPU ATI). Au contraire, ils avaient choisi de ne pas se pencher sur dx10.1 parce que ce dernier n’apportait rien. On peut se dire qu’ils ont eut le temps de bosser le sujet Dx11 depuis.


Au fait, pour répondre à la question:

Vu la tournure que prend le topic je serais tenté de répondre: Personne

:stuck_out_tongue:
Edité le 08/07/2009 à 17:28

si directx 11 profite du GPGPU, ati ne serait pas en avance dans ce domaine, vu depuis les ccc 8.11 ou 8.12 il permettait justement de faire ça?

Nvidia est clairement plus en avance sur ce domaine.
Faut pas croire mais le fait qu’ils developpent CUDA ne veut pas dire que pour les autres API ils sont à la rue. Au contraire parce que (par ex) CUDA n’empeche pas d’utiliser OpenCL… ça ne travaille pas au même niveau.

intéressant.

est ce que vous savez un peu comment il font pour créer des composants dans des cartes videos le concept.

car quand une personne a dit je vais appuyer sur le clavier et numériquement tout s’ affichera, comment il s’ avait que en mettant tel ou tel chose ensemble il allait faire une carte video plus ou moins plus puissante

Au début il y a eu le tranisitor puis le circuit imprimé et le circuit intégré.

Tout ça combiné avec l’arithmétique binaire et les booleans (AND, OR, XOR, etc)…

… 50 ans plus tard ça nous donne un GPU capable de traiter des millions de polygones, une carte son qui peut générer des signaux hautes définition sur 12 canaux, ou un CPU avec 8 coeurs d’executions et pleins de mémoire cache.
Ca ne s’est pas fait du jour au lendemain ce fut un lente (mais aussi fulgurante à l’echelle de l’humanité) évolution des techniques

Maintenant si tu veux vraiment savoir comment ça fonctionne va falloir que tu prépares un diplome d’ingénieur en micro-electronique parce que ces trucs sont d’une complexité invraissemblable.
Aujourd’hui la conception d’une puce est rendue possible par la puissance des outils de conception (logiciels) et par le fait qu’on ne crée plus rien à partir de zéro. chaque puce n’est que le produit de l’évolution de la génération précédente. On reprend ce que le maitrise et on le modifie.
Pour ce qui ets de la puissance cherchée, simple: on sait que la puce contient X unités faisant tel calcul et on sait que telle unité est capable de tant et tant d’opérations. Donc si onsait combien il y a d’unités et quel calculs seront fait, alors on connit la puissance du truc.

Exemple simple:
Tu sais qu’un cheval est capable de tirer une charrue, mais qu’il en faut trois pour en tirer deux (rapport non linéaire). Partant de là tu sais qu’avec X chevaux tu pourras tirer Y charrues. Après le problème sera de coordonner l’action des chevaux, et de relier convenablement les chevaux aux charrues pour ne pas te retrouver avec un cheval qui ne tire que 5% du poids tandis qu’une autre en tire 30%, etc etc

Un pavé!