Forum Clubic

Ati stream avec 3ds max

Bonjour,

j’ai essayé de trouver un topic similaire, mais j’ai fait chou blanc.

Je ne sais pas si je suis dans le bon “domaine” mais je voudrai savoir si la technologie STREAM de chez ATI permet l’accélération de rendu sous 3DS MAX comme CUDA.

Pour l’instant, il n’y a que mon processeur (AMD Phenom black edition 965) qui bosse et cela me prend un certain temps pour mes calculs de rendus. Hors, je vois qu’avec la technologie CUDA, le rendu est très court, même pour des images complexes.

Je pense acquérir une carte 3D professionnelle dans les prochains mois, et je ne sais plus vers qui me dirigeai, ATI (STREAM) ou Nvidia (CUDA) ? Quelqu’un pourrait m’aider dans ce choix Épicurien ? :slight_smile:

up !

Salut,

Je fais un peu d’infographie en amateur depuis un petit bout de temps, et pour le moment, hormis les cartes pro (c’est à dire les séries Quadro chez NVidia/FireGL (je crois) chez ATI), les moteurs de rendus sont -à ma connaissance- pas encore au point.

A l’heure actuelle, je dirais que NVidia a quand même plus d’avance sur le domaine, mais il faut savoir que:

  • CUDA à la base, ça sert juste à avoir plus facilement accès au GPU computing, et pas forcément dédié applications graphique. NVidia a développé Gelato (qui je crois est basé sur CUDA) qui lui est un moteur de rendu spécifique pour les cartes.
  • D’autres moteurs de rendu ont vu le jour, comme Octane ou VRay RT, mais aux dernières nouvelles c’est pas des versions finales. Mais, ces moteurs supportent le plus souvent des cartes NVidia, y compris parfois des cartes grand public ( www.spot3d.com… ). Perso j’ai une ATI, donc j’ai jamais pu tester si c’était vraiment au point (je fais du rendu CPU, et uniquement des images, pas d’animation donc ça passe).
  • Si t’es sous 3DS MAX, y a des chances pour que tu utilise le Scanline ou Mental Ray et à part avec les cartes pro style Quadro (et encore j’en suis pas sûr), c’est CPU only pour le moment. Si t’es sous VRay, tu peux essayer VRay RT, au moins t’auras pas à galérer à changer tous tes shaders :smiley:
  • Une carte pro ça coûte cher… :frowning:
  • L’évolution, elle viendra progressivement avec l’implémentation d’OpenCL (GPU Computing unifié en quelque sorte) qui se fera également sur les CG grand public. A terme, y a moyen que n’importe quelle appli 3D puisse tirer parti de n’importe quelle carte. Apparemment, NVidia a une fois de plus un peu plus d’avance sur ATI, mais ptet que d’ici 2 ans on pourra vraiment se lâcher sur les polygones :stuck_out_tongue:

En résumé: Pour le moment je pense que la tech est pas au point (parce que les renderers sont pas finis et qu’OpenCL est pas bien implémenté niveau hardware/pilotes), mais une fois ces problèmes réglés ce débat n’aura plus lieu d’être… En gros, attend un peu si t’en a la possibilité :jap:

Merci beaucoup de ta réponse et d’avoir pris du temps pour m’expliquer.

C’est bien ce que je pensais, mais je crois que je vais me prendre une nvidia Quadro 3800 ou 4000 dans les mois à venir.
Je bosse sur quelques projets en ce moment, et j’ai vraiment besoin de puissance (malgrès mon Quad Core de chez AMD)

J’ai “découvert” la techno STREAM y’a pas longtemps et quand je vois le moteur de rendu mental ray “iray” sous 3DS MAX 2011 qui marche avec CUDA, je me dis OUAAHHHH !

Cela permet d’avoir des rendus casi instantané (par exemple un gars qui fait une animation avec une teapot et de la mer en mouvement de 4-5s ou chaque image est calculer en moins d’une 1 seconde !!!)

Encore merci pour ta réponse :slight_smile:

De rien :wink:

Juste un truc quand même:

Oui, c’est vrai mais c’est fait sur des machines spécialement préparées par NVidia (encore que si t’as le budget, ça résoudra les problèmes). C’est dommage qu’il faille investir dans une Quadro quand les dernières GTX ont une architecture très similaire. Parce que pour le moment, le grand public il peut se brosser :confused:
Quelques liens qui pourraient t’intéresser:
www.tdt3d.com…
www.3dvf.com…

Et enfin:
www.nvidia.com…
La vidéo (sur la droite du site) est intéressante, et montre bien la différence entre les 2 façons de procéder au rendu, qui résume bien ce que je pensait:

  • Avantages GPU: très simple à configurer puisqu’il utilise un moteur physique pour la GI. Il suffit d’attendre pour que la qualité de l’image augmente. Génial pour les previews.

  • Inconvénients GPU: granularité de l’image (ou alors faut quand même attendre un bout de temps), configuration trop simpliste (parfois certains params de CPU-renderer ajoutent un ptit côté artistique :D), les CG adéquates sont chères.

  • Avantages CPU: rendu sans grains, moteur paramétrable, utilisable par tous.

  • Inconvénients: parfois difficile à paramétrer, globalement plus lent (surtout quand tu veux juste faire un rendu test)

Je ne sais pasi quelqu’un va me répondre, mais j’ai pas mal réfléchie sur les cartes Nvidia.

J’ai fait des recherches sur internet, et cela m’a montrer (si c’est vrai) que les GTX et les Quadro de mêmes générations ont les mêmes spécifications hormis les pilotes adaptés pour le jeux et le rendu 3D en temps réel.

Je voudrai savoir si une GTX 580 aurait des performances comparables à une quadro FX 4000 ou 4800 voir plus ?

PS: j’ai trouver un site internet qui me parait un peu bizarre car il place la 5870 (qui n’utilise pas CUDA) meilleur que la 580 et la GTX 480 est encore plus puissante (http://www.cgarchitect.com/news/newsfeed.asp?nid=4960)

Merci :slight_smile:

up