En lisant tout, ya des personnes qui croit que Intel va concurencer nVidia et ATI dans les cartes pour joueur… Moi je crois que Intel la premeire carte qu’ils votn sortir, sera une carte bas de gamme, car:
1- il faut optimisé les pilotes
2- Avoir une architecture efficace
3- un GPU ne fait pas de x86, donc ca ne veut pas dire que Intel avec des CPU hyper performant, vont faire des GPU top des que début…
Intel va plutot intégré un GPU au CPU, pour concurencer AMD qui parle de son Fusion…
et la je comprend pourquoi on parle du Cell :paf: , rien a voir avec un GPU :paf: car: PS3 = un chip nVidia, et xbox 360 = chip ATI
Cette intégration ira encore plus loin dans les dual-core Havendale et Auburndale : à la place des deux cores supprimés, Intel casera dans le même package MCM (Multi Chip Module), non seulement le contrôleur mémoire et le contrôleur PCI-Express, mais carrément un GPU ! Il sera toujours possible de monter une carte graphique annexe, mais cest là un coup dur porté à lencontre des fabricants de chipsets graphiques intégrés, tel Nvidia par exemple.
On en parlait ! adieu les cartes graphique
qui va chapoté encor ??
Edité le 29/11/2007 à 06:52
Les cartes graphiques existeront toujours, car ce type de solution ne pourra jamais rivaliser avec la puissance d’un GPU.
En plus sachant qu’un GPU est plus souvent remplacé qu’un CPU dans un configuration de joueur, l’usage d’un GPU integré au CPU n’est pas envisageable pour cette catégorie d’utilisateur. Ca oblige à change le CPU juste pour améliorer les graphisme d’un jeux, c’est hautement improbable.
Au final ça ne changera pas grand chose: au lieu d’avoir des chips graphiques integrés au chipset ils seront dans certains cas integrés au CPU (AMD travail aussi sur un tel projet), nVidia vend tres peu de solution avec chip graphique intégré donc ça n’aura quasiment aucun impact sur eux. Et bien que cela represente le plus gros des ventes, ça ne concerne que l’utilisateur lambda qui de toute façon n’aurai pas acheté le dernier GPU à la mode…
+1, un GPU contient parfois plus de transistor qu’un CPU, un GPU sera toujours plus puissant qu’une solution intégrée, c’est logique. Une fois que tu as mis 4 coeurs de CPU il ne reste plus beaucoup de place pour le GPU, alors qu’avec un GPU dédié tu as toute la place que tu veux
En 2009 intel aura peut-être un GPU aussi puissant qu’un 8800GTX, mais dans 2 ans le 8800GTX ne sera plus la référence
Geforce 8800GTX = 680 millions de transistor
Intel Core 2 Duo E6600 (4Mo de cache L2) = 291 Millions
Meme avec 4 Mo de cache un CPU Bicore n’a meme pas la moitié des transistors présents dans un G80 :paf:
D’ici là à ce qu’un equivalent au GPU se trouve integré à un CPU on sera passé à autre chose depuis longtemps :ane:
Edité le 29/11/2007 à 14:45
Au fait à propos de Larabee : son but n’est en aucun cas de concurrencer les GPU sur leur marché principal.
Le projet larabee c’est un projet d’accelerateur de traitement parallelisé.
En fait il concurrence les utilisation GPGPU des chips graphiques (cf Cuda chez nVidia et CTM chez ATI/AMD).
Il pourrait etre utilisé comme GPU, mais d’ici là gageons que les evolution de ces derniers mettra à mal cet “usage dérivé” de la puce Intel.
D’ailleur s ça reste une puce x86 (IA-32) contrairement aux GPU qui sont des puces hautement dédiées. Et jusqu’à preuve du contraire une puce hautement dédié à toujours ete plus rapide dans son traitement qu’une puce “généraliste”
Je suis né quand les processeurs dépassaient a peine le million d’instructions par seconde, le sens de ma phrase n’est qu’une hyperbole car comme chacun sait l’apparition des GPU sont venu a la rescousse des CPU, uniquement !
[quote="Almalexia]En 2009 intel aura peut-être un GPU aussi puissant qu’un 8800GTX, mais dans 2 ans le 8800GTX ne sera plus la référence
[/quote]
Ignorant que tu est … On croit rever !