Discussion : L'avenir des cartes graphiques

Bonjour,

Que pensez-vous des objectifs d’intel (core i7) et d’amd (phenom II) d’avoir un coeur qui serve uniquement au moteur graphique.

Est-ce la mort des cartes graphiques actuelles?

Je pense que Nvidia va bloquer ces progrès car c’est la mort pour eux.

En plus les cartes les plus performantes comme des HD4870x2 arrive à 2 Go de RAM et à une fréquence que la DDR3 actuelle n’atteint pas et comme les proç intel et amd ont un contrôleur mémoire interne qui bridera des avancés en fréquence de la RAM c’est une réelle limite cet objectif.

En plus un proço on (en tout cas je) le garde plus longtemps qu’une carte grahique car les cartes gères des nouveaux effets visuels, etc…

Les projets d’Intel et d’AMD (qui sont très différents des Core i7 et Phenom II soit dit en passant) n’ont absolument pas pour vocation à supplanter les cartes graphiques. Les coeurs graphiques qui seront integrés seront des “gpu” bas de gammes, destiné au marché des portables, des ordinateurs de bureaux, ou autres.

En fait c’est plus pour remplacer les chip integrés aux carte mères que les cartes graphiques proprement dites.

Nvidia (et la branche ATI d’AMD) n’a absolument rien à craindre de cette “avancée” car elle ne concerne pas du tout leur marché principal.
Edité le 21/11/2008 à 12:35

ATI utilise de la GDDR5 cadencé à presque 4 Ghz, contre (seulement) 2 Ghz pour les processeurs. La mémoire graphique est en avance par rapport à celle des processeurs et ne sera donc pas freiné .
Si les fabricant de CG voulais vraiment, il pourrai très bien mettre 4 Go de RAM dans leur CG, c’est juste que 1 Go par GPU suffise pour l’instant.
Je ne sait pas si tu as vu les actus clubic concernant CUDA et autres, mais les CG sont bien plus puissante qu’un processeur, mais ne sont pas exploitable pour le grand public.
Si un proc se garde plus longtemps, c’est justement parce que sa puissance stagne . Tandit que la puissance des cartes graphique double presque tous les ans, si bien que les jeux prennent en compte ce gain de puissance et demande toujours plus de puissance, ce qui n’est pas le cas pour les CPU.
D’ailleurs concernant les CG, les pro de la météo ont eu un gain de 20% en changeant 1% de leur parc machine par des cartes graphique.
Edité le 21/11/2008 à 14:20

En effet ça a plutôt vocation à transférer les chip graphiques aujourd’hui intégrés dans les chipset dans les CPU (comme pour le contrôleur mémoire en fait)
C’est pas demain la veille qu’on pourra jouer à Crysis sans carte graphique :D.

Quant aux annonces d’intel méfiance, ça fait des années qu’ils annoncent des super GPU de la mort qui vont tout révolutionner et au jour d’aujourd’hui ils accusent toujours un retard technologique important sur les 2 leaders.
Edité le 21/11/2008 à 14:24

Intel fait surtout des cartes graphiques ayant la plus basse consommation possible, pour les ordinateurs portables. Sa vocation ne se tourne pas vers les jeux vidéos.

Et à l’heure où la technologie Cudia - qui permet d’utiliser les GPU pour faire des calculs de CPU - commence à se répendre, on est plutôt dans la direction inverse. Ce sont les GPU qui pourraient remplacer les CPU.

Moi aussi je pensais bien que ce moteur graphique servirait au remplacement des chipsets actuels basés sur les MoBo mais dans l’article il citait les modèles de i7 avec moteur graphique comme une déclinaison “haut de gamme” du proç (ce qui ne signifiait pas haut de gamme de la plateforme).

De toute façon on est bien d’accord que les jeux actuels et futurs ne pourront pas se passer de CG.

Par contre je ne connaissais pas cette technologie “Cudia”…

C’est CUDA :jap:
http://www.clubic.com/actualite-170990-itw-nvidia-detaille-sa-strategie-cuda-et-gpgpu.html

n’empeche c’est baraque cuda…

Et bientot ATI Stream machin chouette via prochaine mise à jour (mais que pour les HD48XX)

Ce n’est pas tout à fait vrai, sinon les CPU n’existeraient plus.
Les GPU ne sont pas capables de faire des calculs sériels aussi rapidement qu’un CPU (càd enchaîner des calculs les uns après les autres), mais par contre peuvent faire énormément de calculs parallèles, beaucoup plus qu’un CPU, et beaucoup plus vite, d’où le fait que leur puissance de calcul brute est largement supérieure à celle d’un CPU.

Et oui, ATI va faire le même coup que Nvidia avec CUDA en proposant ATI Stream à la dernière génération de CG qu’ils fabriquent, via une M.A.J. du driver. Il me semble que le principal avantage de Stream sur CUDA c’est qu’il utilise un langage de programmation ouvert, alors que CUDA est un langage propriétaire appartenant à Nvidia (il me semble qu’il faille payer une forte somme pour avoir le droit de l’utiliser, alors que c’est pas le cas pour ATI, mais je suis pas sûr).

Non seulement ça, mais contrairement aux CPUS les GPUS n’intègrent pas tous les circuits nécessaires pour fonctionner “seuls” (c’est à dire sans être pilotés par … un CPU :ane: ).

Et oui, en effet come tu le dis, les GPU sont de véritables brutes en ce qui concerne le calcul massivement parallèle, en revanche, les taches générales, comme les branchement dans un programmes leur font perdre beaucoup plus de temps qu’à un CPU. :jap:
Edité le 21/11/2008 à 17:55

Le fait que le langage soit plus ou moins ouvert en fait pas tout.

nVidia offre un vrai SDK, un vrai support technique et un enorme suivi pour ceux qui voudrait s’y interesser.
Pour l’instant AIT a juste fait genre de s’y interesser mais sans plus en laissant le truc se faire tout seul.

En plus d’apres ce que j’ai vu l’ATI Strema est beaucoup plus limité que Cuda en matiere de CPU compatible.
Chez nvidia n’importe quelle Geforce8 (meme une Geforce8500) peut en profiter, meme si ça ne pouttre pas forcement) chez ATI ça se limite au HD 4xxx, alors que techniquement rien n’empeche les HD3xxx d’en profiter

Je n’est pas vraiment dit qu’une carte graphique peut remplacer ou remplacera un CPU, puisqu’elle est un complément, le CPU sert à l’exploiter . Mais une fois accompagné d’un CPU, elle peut dépasser de très loin les propres perf du CPU.
Pour l’histoire du calcul en série, je ne sait pas si c’est vraiment un problème, c’est juste une histoire de programmation ça, donc de temps finalement. Donc pour l’avenir, c’est tout vu pour les CG (accompagné d’un processeur, pas en remplacement).

C’est peut-être limité aux dernières nées d’ATI pour l’instant, mais il se peut que ce soit étendu aux HD3xxx plus tard. On ne sait pas ce qu’ATI nous réserve.
Le support technique est limité à ce qu’Nvidia peut et veut fournir, or, avec ATI, pour peu que des gens s’y intéressent, il se peut que celui-ci soit beaucoup plus étendu dans le futur.
Wait and see !

La programmation ne fait pas tout quand meme. Il y a un moment où le hardware n’est pas adapté à certaines tache, point.

un GPU ce sont des dixaines de petites unités specialisées en parallèle, des registres tres courts, et j’en passe. A aucun moment ça ne peut remplacer un CPU dans pas mal de traitement. Ou, oui si tu veux on peut le faire mais le gain potentiel se transforme en pure perte!

Ce qui fait la grande force des GPU pour certains traitement c’est leur capacité à traiter d’enormes flux de données en parallèle, garce à des bandes passantes gigantesques… Mais par ex il n’y a aucune prediction de branchement (truc tout con) dans un GPU. Donc les structures conditionnelles (genre un If Then Else) ne sont pas du tout à la fete.
Un GPU c’est:
Donnée A => traitement => resultat

  • Donnée B => traitement => resultat
  • Donnée C => traitement => resultat
    etc
    etc

Mais dès que
Données C = Données A + Données B Si Données E = Valeurs à déterminer … alors là tout de suite ça fait moins le malin


[quote="Riddickule"]

Le support technique est limité à ce qu’Nvidia peut et veut fournir, or, avec ATI, pour peu que des gens s’y intéressent, il se peut que celui-ci soit beaucoup plus étendu dans le futur.
Wait and see !
[/quote]

J’ai appris à me mefier des “si” et autre “pour peu que”

On verra bien, ce dont je suis sur c’est qu’une technologie comme ça ne s’impose jamais vraiment sans le soutient total de l’industriel qui veut la promouvoir.

Très bon exemple illustrant une des raisons pour lesquelles les GPU actuels ne remplaceront pas les CPU.
Edité le 21/11/2008 à 18:49

Ouais, c’est déjà plus clair pour moi :slight_smile:

ça et accessoirement le cache …
Edité le 21/11/2008 à 18:46

Le cache n’est pas vraiment un facteur.

La mémoire graphique peut tres bien se substituer au cache integré aux CPU. Elle est beaucoup plus grosse, totalement “partagé” entre les unites de traitement, tourne quasiment à la frequence des unités (voir plus dans certains cas), etc…

Selon la conception du processeur / sous-système mémoire, on peut tout à fait imaginer se passer de mémoire cache (ou tout au moins la réduire de façon importante.

Edit: L’importance du cache dépend aussi du type de tâches effectuées par le processeur.

Processeur dans le sens générique du terme :wink:
Edité le 21/11/2008 à 18:53