Bijour.
On nous rabbat les oreilles avec des finesses de gravure GPU en amelioration, des frequences et des prix revus a la hausse.
Certes les cartes graphiques qui sortent sont de plus en plus performantes avec le SLIle Tri SLI le CrossFire le Quad Crossfire et le Quad SLI.
Bref je trouve que tous sa c’est du gaspillage d’énergie et surtout de temps.J’ai lu une breve comme quoi Intel allai se mettre a fabriquer des GPU 16 coeur d ici 2009.
Mais a l’heure actuelle ne pensez vous pas que d’envisager une fabrication en masse de GPU dual core basé sur les architectures de Core 2 Duo actuels serait plus intelligent et plus economique ?
Je pense que les joueurs en ont marre d’acheter des cartes haut de gamme pour les voir dépassées 6 mois plus tard par des cartes moins cheres et presque aussi performantes ( 8800 GTX et 8800 GT ).
J’attend vos réactions
Peace
Ca pourrait être intéressant. Mais il faut déjà être sûr que les programmes exploitent le double coeur de la puce graphique. C’est déjà pas toujours le cas pour un CPU alors pour un processeur “annexe” (les perfs des montages SLI et Crossfire le montrent)…
Deuxio : nVidia et AMD commencent à réfléchir sur le sujet. En attendant, il faut bien faire du business :ane:
Tertio : Intel a besoin de peaufiner le sujet sur les processeurs graphiques. C’est bien différent du processeur principal par son organisation et les instructions qu’il exécute. On essaie également d’optimiser certains points et, enfin, on commence à produire (quand les usines produisent pas trop de déchets). Et de temps en temps, on débugge le proco :paf:.
Tout ça pour dire que ça prend du temps pour pondre un processeur (et encore plus si on en veut un bon). Intel a les fonderies pour produire en quantité importante à des prix compétitifs, mais ils ne peuvent raisonnablement pas lancer un simple dérivé des Core 2 aussi vite sans risquer de se prendre des baffes.
excuse-moi mais je vois pas en quoi la discussion peut mener à quelque chose.
c’est comme dire d’utiliser un moteur de ferrari pour faire voler un chasseur à réaction :ane:
edit : tu veux dire construire des gpu multi chip ? parce que l’architecture d’un cpu ça n’a pas grand chose avoir avec celui du gpu.
edit : tu veux dire cpu 16 cores et pas gpu 16 cores.
la 8800gtx a un an, et elle est loin d’être enterrée pour l’instant. La carte ne s’arrête pas de tourner le jour où de nouveaux modèles sortent.
la 8800gt est moins cher, et alors ? en quoi, ça soulagerait ceux qui ont du hdg depuis un an de savoir que le prix d’une carte qu’il ne vont pas acheter est bon ou pas ?
Edité le 22/11/2007 à 14:58
Ouai alors… un CPU et un GPU ça n’a en comment que le fait d’etre fabriqué avec des transistors gravé dans du silicium. Tout le reste n’a absolument rien à voir.
Ce n’est ni le même mode de fonctionnement, ni les même principes de conceptions, et encore moins des architectures qui peuvent se comparer de pres comme de (tres) loin.
Appliquer le modèle Bicore d’un CPU à un GPU est tout simplement infaisable en l’etat.
Un CPU c’est un ensemble complexe d’unites tres diverses (ALU-FPU-registres-Prefetch) associé à une grosse parti de mémoire cache.
Un GPU c’est un nombre incroyable de transistors (un G80 c’est 2.5x plus de transistor qu’un Core 2 Duo malgre les 4Mo de cache!), qui font presques tous la même chose. Dans un GPU tout est fait pour pour traiter le plus vite possible un grand nombre de petites instructions en parallèle.
Autant coller deux CPU l’un à cote de l’autre c’est “relativement facile” (tout est relatif) car un CPU est autonome dans sa capacité à traiter les données (il cherche les instructions et les données, les stocks où il doit le faire, les traite, en copie le resultat quelque part et passe au prochain traitement.
Autant un GPU n’est pas aussi autonome. sinon des techniques comme SLI et crossfire existeraient depuis longtemps et aurait ete bien plus optimisées.
Il faut lui dire quelle données traiter, où il doit les chercher, dans quel ordre et ce qu’il doit en faire (c’est le role d’une API comme Direct3D ou OpenGL qui transcrit le code programme en instructions pour le GPU… et ne pas oublier le role du driver aussi). un GPU bicore devra savoir gérer le partage de la mémoire vidéo par ex.
Mais moi je vois un autre problème: un GPU c’est un peu un truc à sens unique. Les données entrent et il ressort une image qui sera affichée sur l’ecran. Comment faire pour gérer ça ? Quelle “morceau” sera utilisé pour pour la creation finale de l’image.
Il faut savoir qu’en SLI/crossfire les GPU s’aident sur le traitement de l’image mais au final y’en a un qui doit assembler le resultat des deux traitement (d’où le fait qu’on aura jamais 100% de gain avec 2 cartes).
Pas si simple …
Mais probablement pas impossible bien sûr. D’ailleur le GPU de la Xbox360 est un peu particulier car il possède 2 Die (non non deux core), le second etant une grosse quantite de cache avec quelques unites censées faciliter les traitement d’antialiaising.
Ok merci bien pour tous ces renseignements sur la fabrication et l’architecture d’un GPU… je n’en savais rien.
Mais en lisant vos message j’ai l’impression que vous croyez que je me plaint :)a lors qu’au contraire l’arrivée du G92 me plait beaucoup.
Je me “contente” de ma 7900 GT OC qui, sous crysis me ne décois pas en 1024*768 tout détails élevé,cependant je compte aquérir une prochaine carte d’ici peu.
Je crois savoir aussi que Nvidia a pour habitude de rafrachir ses cartes tous les 18 mois.
Sa fait un an que la 8800 GTX est sorti, est-ce qu’on peut s’attendre a des nouvelles cartes avant l’été prochain ??
c_planet say : [ tu veux dire cpu 16 cores et pas gpu 16 cores]
Euh, non c’est biend de GPU 16 cores que je parle
Tape intel 2009 dans g00gLe ^^
Edité le 22/11/2007 à 17:44
ça c’etait au plus fort de la concurrence avec ATI/AMD.
Aujourd’hui le rythme a quelque peu ralenti (les deux constructeurs ont clairement affirmé cette volonté il ya quelques mois).
Tant que nVidia n’aura pas de vrai concurrence en haut-de-gamme je doute qu’il revolutionne leur GPU dans les semaines qui suivent
A tu lu les niouzes sur la concurrence d’intel niveau GPU d’ici normallement 2009 ??
C’est vrai qu’une nouvelle architecture comme celle la serait innovante.
Je pensais aussi que si c’est vraiment compliquer de produire des gpu multi cores pourquoi ne pas augmenter le nombre d’unité de calculs, de mémoire et enfin de bus mémoire ? quels risques ? quel consommation ? quel prix ?:etonne2:
Mais si on parle bel et bien de GPU 16 cores a mon avis sa ressemblera au Cell de la PS3
mais en mieux:love:
Affaire a suivre
Edité le 22/11/2007 à 17:55
J’appel pas ça des news mais des rumeurs… Moi je crois en ce qui existe pas dans des projets même pas officiels…
Le Cell n’est pas forcement ce qui se fait de mieux (si on prend le problème dans sa globalité)… je ne pense pas que ce soit un exemple à suivre.
En plus on ne peut pas vraiment parler de “multicoeur” dans le cas du cell.
[quote="Ir0n44"]
Je pensais aussi que si c’est vraiment compliquer de produire des gpu multi cores pourquoi ne pas augmenter le nombre d’unité de calculs, de mémoire et enfin de bus mémoire ? quels risques ? quel consommation ? quel prix ?:etonne2:
[/quote]
Plus tu augmentes la taille du die plus c’est compliqué à produire. Ca coute plus cher et les die qui sont OK en bout de chaine sont moins nombreux car les risques de Die defectueus augmentent.
Et quand tu augmente les bus mémoire tu augmentes forcement la taille des unités de traitement sinon bonjour le goulet!
Oui c’est plus tot plusieurs procco diffenrents travaillant ensemble non ?
mais Intel c’est si faire non ?
Mais toi,qu’en pense tu de ces articles/rumeurs ?
Je ne crois pas qu’on puisse vraiment parler de “cores” pour un GPU ;), ou alors si un stream processor est assimilé à un core, une 8800GT contient 112 cores! :nexath
Edité le 22/11/2007 à 17:59
Je site : Aujourd’hui XXXX obtient aussi confirmation des intentions d’Intel, avec même quelques dates à en prime. Selon nos confrères, Intel va concurrencer NVIDIA et AMD dans 2 ans. Le premier GPU haut de gamme pour les joueurs grand public devrait arriver à la fin 2008 ou au début de l’année suivante. Un GPU qui sera bien basé sur une architecture multicoeur, XXXX parle même d’une puce constituée de 16 coeurs graphiques.
La puce sera certainement gravée en 45 nm ou 32 nm, si Intel utilise bien son avance technologique en la matière. Toujours selon les informations de XXXX, certains affirment que la puce graphique 16 coeurs d’Intel sera 16 fois plus puissante que la puce actuelle la plus avancée, sous-entendu le G80 (Geforce 8800) de NVIDIA.
16 fois plus puissantes:ane: moi j’y crois pas… plus puissante sa c’est dur mais de la a etre 16 fois plus sa frise la provocation
Pour revenir là dessus et reprendre, entres autres, les propos du poilu, produire un GPu multicore est extremement complexe et au niveau de l’efficacité, il sera très complexe de produire une archi optimisée pour obtenir un réel gain.
Si l’on considère que les GPU actuels sont équipés de multiples shaders processors, on peut alors considérer que les GPU multicore existent déjà.
Par contre pour produire un Gpu multicore (2 GPU sur un seul die), il faudra alors mettre au point un “Dispatch processor” (comme ceux utilisé dans les gpu actuels, mais en plus perfectionnés encore.) Plus d’infos sur les archis des gpu sur ce topic: www.clubic.com…
(pas encore à jour, car il manque l’archi G 80 / 90 et HD 2*** et / HD 3*** :jap: )
Le problème n’est pas tant de faire une puce x fois plus puissante. Ca je pense que c’est possible…
Le problème c’est de faire une puce x fois plus puissante mais réellement concurrente des puces actuelles. C’est dire répondant aux mémes exigeances et capable de faire tourner les mêmes API.
Donc il faut au moins que l’bestio soit optimisé à mort pour Direct3D sinon c’est meme pas la peine d’y penser. Or je ne sais pas si Direct3D permet ce genre de fantaisie :neutre:
Donc si c’est pour se retrouver avec une API propriétaire autant que c’est l’echec commercial assuré… sauf s’ils arrivent à le placer dans une console de jeux (et encore même là on tend de plus en plus vers l’usage d’API connues)
Oui, c’est aussi un point important, ou alors il faudrait que la carte multi GPu soit équipée d’un controleur supplémentaire assurant le “dialogue” avec Direct3D et effectuant en interne les optimisations nécessaires pour obtenir le meilleur des 2 (ou plus) GPU :jap:
Autant dire que c’est très très loin d’être évident :jap:
ça existe… ça s’appel le SLI (ou crossfire) :mdr
Et quand on voit les difficultées qu’ils ont à vraiment avoir un truc au point… autant dire que c’est loin d’tre gagné pour un truc “mutlicore”
Pourquoi ce genre de carte n’est pas plus rependu?
Est-ce une sorte de crossfire? N’importe quel carte mère (qui a du pci-e 16x (je me demande pourquoi je précise… :arf:)) peut la supporter?
Ben une 7950GX2 c’est pas si pourri que ça si tu regardes bien :neutre:… et ça reste du SLI.
Là où ça merdouille c’est un SLI de 7950GX2… un quad-SLI en fait, ça c’est pas du tout au point.
nvidia devait appliquer une politique annuelle (et pas 18 mois) en ce qui concerne le renouvellement de l’architecture gpu haut de gamme. Mais bon comme ati n’est même pas venu chatouiller la 8800gtx, nvidia a eu tout bénéfice en gardant ses cartouches au placard plus longtemps. (c’est pas maintenant qu’on va voir sortir des pyramide de chips gfx sur un pcb de cg)
tout ça, c’est bon pour ceux qui ont acheté du haut de gamme il y a un an, et c’est super long pour les gens comme moi qui doivent changer leur pc :nexath, j’ai failli craquer sur un sli 8800gt mais je veux pas rater le hdg qui va sortir, parce que acheter du hdg à sa sortie je n’ai jamais eu à le regretter (ti4600, 9700pro) (surtout que maintenant nvidia maintient les prix hdg sur l’année).
sinon, si on en est à donner ses envies sur la sortie de telle ou telle innovation, je trouve que ça manque de socket gpu sur les cg, et de slot vram.
et aussi j’aimerais avoir l’option de pouvoir booter un pc/windows avec uniquement la vram de la cg pcie.
Et bien et bien il y a bien des gens perdu dans ce monde de l’informatique en perpétuel évolution !
Quans on a suivi cette évolution depuis sa naissance celà permet d’anticiper ce genre de nouvelles qui sont des révolutions www.matbe.com…
Le type d’architecture :
CPU Multi core (hyper threading)
-DDR-3;4.
-PCI-Ex.²
-DX10.1 …+ Emulation Dx10 sous Dx9.0.C => Alias Dx9.0L
Il faut également prendre en compte dans cette évolution graphique l’assention de la physique d’où la venue du double core GPU.
Et justement avec l’arrvié d’intel pour2010 sur le marché Graphique, Le Cell reste un référence( PS3 ) autent pour le CPU(nForce) que pour le GPUavec Nvidia !