Nvidia 480 Ca chauffe

Voilà les premiers tests
www.pcworld.fr…

chauffe mais possède un bon refroidissement quoi :neutre:

Bon apres, il n’y a encore aucun BENCH de mis en ligne il faudra attendre cette nuit, date a laquelle les carte de NVIDIA serons officiellement lancée enfin leurs marathon de bench, pour le publique RDV le 12 Avril au plus tard :wink:

ça me rappel les 8800 GT :slight_smile:

Waou, je me permet de rajouter quelque chose :
L’article a été masquée !
j’ai donc copier ce que j’étais en train de lire dans le spoiler !

[spoiler]Spécifications

Les GeForce GTX 480 et GTX 470 utilisent une seule et même puce, le fameux GF100. A la base ce nouveau GPU possède 512 cores mais la GTX 480 n’en utilise que 480 et la 470 448. En effet sur les 16 SIMD disponibles au sein de GF100, 15 sont activés pour la 480 et 14 pour la 470. Chaque entité comporte 32 cœurs CUDA, 48 Ko de mémoire partagée et 16 Ko de cache L1. Ces 16 SIMD sont regroupés par grappe de quatre avec pour chaque un moteur de rastérization. Si Nvidia n’a pas activé les 512 cœurs disponibles sur la GTX 480, c’est pour des questions de consommation. En effet la norme PCI-Express 2.0 a établi une valeur maximale de 300 watts dans ce domaine. En activant les 512 cores, les 300 watts étaient dépassés. Même en n’utilisant que 480 cores, les 300 watts ont été atteints, ce qui a poussé Nvidia à baisser les fréquences en dernière minute. C’est la même mésaventure qui a touché ATI avec sa Radeon HD 5970 qui fait plus office de 5850X2 que de réelle 5870X2. En cause là aussi, une consommation trop élevée allant au-delà des standards édictés par la norme PCI-Express 2.0.

Mais selon nos sources, Nvidia prépare déjà activement une révision B de son GF100 qui devrait voir le jour en juillet afin d’optimiser la consommation de Fermi. Il est alors fort probable qu’une GTX 485 voie le jour avec 512 CUDA cores bel et bien actifs. La firme au caméléon aurait pu attendre cette révision pour présenter sa nouvelle architecture vu que juillet n’est pas si loin mais lors de la conférence de presse organisée à Paris pour le lancement de Fermi, nous avons bien senti qu’il était temps que Fermi sorte enfin. Un slide évoquait d’ailleurs un mot qui veut tout dire : « finally ». Nous avons d’ailleurs sentis chez certains collaborateurs Nvidia un forme de soulagement de voir Fermi enfin sorti des cartons même s’ils savent que le GF100 est loin d’être parfait d’un point de vue consommation et chauffe.

Quoi de plus normal au final avec une puce comportant pas moins de 3 milliards de transistors ! Bénéficiant d’une finesse de gravure en 40 nanomètres, cette puce aurait quelque part du naitre sur un processus de fabrication en 28 nanomètres pour ne pas être caduque. Ne vous méprenez pas, nous ne critiquons pas ici les choix architecturaux de Nvidia qui sont parfaitement défendables mais le fait que les verts rééditent le coup de la GTX 280 avec une puce complexe, coûteuses et difficile à produire. Une société comme Nvidia ne peut pas développer une nouvelle architecture tous les ans mais il nous semble clair que le GF100 est trop gros, trop lourd pour une gravure en 40 nanomètres.

Nvidia en est bien conscient et n’as été trop langue de bois sur le sujet puisque la firme annonce un TDP de 250 watts pour la GTX 480 et 215 watts pour la GTX 470. La GTX 480 s’alimente via 1 connecteur PCI-Express 6 broches et un autre à 8 broches. La GTX 470 « se contente » pour sa part de deux connecteurs à 6 broches. Dans le même registre, la firme au caméléon conseille vivement de watercooler les cartes pour effectuer du Triple SLI. Quant au TDP en 2D, Nvidia n’a pas souhaité le communiquer estimant que le principal était que la carte soit silencieuse en idle. Comme nous le verrons, la valeur en idle est très correcte et de ce côté-là, Nvidia semble avoir bien travaillé.

Ces nouvelles cartes proposent des quantités de mémoire élevées : 1536 Mo de GDDR5 sur bus 384-bit pour la GTX 480 et 1280 Mo de GDDR5 sur bus 320-bit pour la GTX 470. En termes de fréquence, la GTX 480 fonctionne à 700 MHz pour le GPU, 1401 MHz pour les processeurs de flux et 1848 MHz pour la mémoire, soit 924 MHz. La GTX 470 pour sa part propose un GPU cadencé à 607 MHz, des stream processors à 1215 MHz et de la mémoire fonctionnant à 837 MHz. Du côté des entrées/sorties, Nvidia oublie le DisplayPort bien que Fermi le supporte. On a dès lors droit à deux ports DVI et un port mini-HDMI. Niveau prix, la GTX 480 est annoncée pour 479 euros et la GTX 470 à 349 euros. Il s’agit là ds prix minimums recommandés par la firme au caméléon mais celle-ci s’attend à des tarifs plus élevés pratiqués par ses partenaires.

Ces cartes sont évidemment compatibles avec le SLI, PhysX, 3D Vision, DirectCompute, DirectX 11 mais aussi une nouveauté : le 3D Vision Surround. Il s’agit de la possibilité de jouer en 3D Vision avec 3 écrans en Full HD, soit une résolution de 5760x1080. En mode 2D, ces cartes supportent jusqu’à 3 écrans de 30 pouces, soit une résolution maximale de 7680x1600. Dans les pilotes, Nvidia a ajouté la possibilité de corriger l’image selon l’épaisseur du cadre des moniteurs. Il s’agit là de la réponse de Nvidia à l’Eyefinity d’ATI même si ce dernier est plus évolué dans la gestion d’écrans multiples. Pour rappel, l’Eyefinity peut gérer jusqu’à 6 écrans et non 3. Pas de 3D Vision par contre chez les rouges.[/spoiler]

Oui le marathon des bench c’est a partir de minuit !! :oui:

EDIT2: j’ai aussi les bench de temp et de conso pour les impatients :wink:

wd.ch-img.com…
wd.ch-img.com…
wd.ch-img.com…
wd.ch-img.com…
wd.ch-img.com…
wd.ch-img.com…

Voilà, je sais pas si c’est mon cache qui me permet de les voir mais quand je vais sur les liens sa fonctionne :wink:
Edité le 25/03/2010 à 21:15

mais il n’y a que ca, pas de jeux encore
Edité le 25/03/2010 à 21:17

Oui parce que NVIDIA doit va sérieusement râler si les bench arrivent trop tot, le site a pas envie de se faire black listé, mais ils ont quand même mis sa en ligne alors tant pis pour eux :smiley:

Ah c’est cool ça !!

Bon alors, ça chauffe plus en 3D que la 5970, en idle ça chauffe moins, elle fait aussi moins de bruit sous OCCT, par contre en idle la 5970 et les autres ATI ont l’avantage. Personnellement la chauffe de la carte me fait un peu peur, je pense qu’il faudra attendre la révision B pour voir les premières bi-gpu.

on va se refaire exactement la même qu’avec les 280-285 :wink:

onJe vais attendre :wink:
Edité le 25/03/2010 à 21:33

Ca c’est l’explication officielle…

Perso, je pense surtout que TSMC a bien du mal a produire cette puce vu sa complexité …

Du coup, certains unités sont non fonctionnelles, histoire d’avoir un rendement en sortie de chaine pas trop mauvais. :neutre:

Edit: Sinon, c’est pour quand les “vrais” Benchs? (et pas ceux que veut bien montrer Nvidia)
Edité le 25/03/2010 à 21:37

Exact ! :super:

C’est aussi ce que je pense, mais il est vrai que l’argument avancée tiens la route :neutre:

PS réponse a ton EDIT, les bench sont présent dans l’article du lien, mis ils n’on pas encore été mis en ligne, demain probablement !
Edité le 25/03/2010 à 21:38

J’ai vu plusieurs benchmark sur le net mais pas super fiable, normalement ça devrait être comme ça en gros :

GTX470</=HD5870<GTX480<HD5970

Ouais sauf que le “NVidia s’est aperçu en dernière minute que la carte dépassait les 300watts de conso” je ne trouve pas ça spécialement crédible.

Si c’est le cas, ça fait boulot d’amateurs, l’enveloppe thermique de la puce doit être définie et calculée bien avant dans la conception.

On ne m’enlèvera pas de l’idée que le GPU dessiné par Nvidia est tellement complexe que sa réalisation doit poser de très nombreux soucis.


[quote="StykillerX"] J'ai vu plusieurs benchmark sur le net mais pas super fiable, normalement ça devrait être comme ça en gros :

GTX470</=HD5870<GTX480<HD5970
[/quote]
Ouais, on va attendre les tests sérieux, hein, parce que bon …

Parti comme ça j’ai souvenir que certains “tests” donnait le GeForceFX 5800 Ultra largement devant le 9700 Pro d’ATI, … on se souvient du résultat. :nexath

L’enveloppe thermique doit être définie avant même des spécifications et de la conception, c’est à dire dans le cahier des charges.
+1 ce n’est pas du tout crédible.

Ouais c’est vrai aussi, mais bon les calcul, avec tout ce que FERMI aurait du être, trop ambitieux :ane:

Donc mouarf je sais pas, on parle d’un cinquantaine de % de GPU ok Apres avec tout ce que TSMC a essayer de nous fait gober aussi…

Ouais, on va attendre les tests sérieux, hein, parce que bon …

Parti comme ça j’ai souvenir que certains “tests” donnait le GeForceFX 5800 Ultra largement devant le 9700 Pro d’ATI, … on se souvient du résultat. :nexath
[/quote]

Oui je sais pour ça le mot " pas super fiable " est important :jap:

Pour moi les bench NVIDIA était réaliste, vous allez voir )

tout ce qu’on va voir c’est qu’elles sont cher, consomme et chauffe plus que les 58** :kaola:

Je vais te donner mon point de vue là dessus (donc avis subjectif, avec réserves puisque comme tout le monde ici, je ne connais pas les résultats finaux. :jap:

Je commence par un petit retour en arrière, le GeForce FX 5800 Ultra justement.

Ce GPU aurait du être une révolution à son époque (je rappelle qu’il dépassait largement les spécifications de DirectX 9.0, avec entre autres une précision de calcul 128bits (32 par canal, 4 canaux: RGBA) quand DirectX exigeait 96 (24 par canal).

En outre l’archi de Nvidia était très complexe et ambitieuse pour l’époque.

En revanche, pour le GeForce FX 5800Ultra, nvidia a commis (selon moi) 2 très grosses erreurs:

La première étant le bus 128bit DDR2 (une révolution à l’époque la DDR2, seulement très couteuse et très gourmande en énergie, ce qui particaipait à la chauffe très importante de la carte).

La seconde étant la façon dont l’archi avait été expliqué: Au final on avait deux fois moins de pipelines que ce à quoi tout le monde s’attendait …

A ajouter à cela les très nombreux retards (Le 9700 Pro était sortit bien avant) et le GeForce FX 5800Ultra a été une sacré déception.

Perso, pour Fermi, si la carte n’est pas très largement devant une “vulgaire” 5870 eh bien ce sera une sacré déception, dans le sens où d’après beaucoup l’archi d’ATI est en bout de course, etc …

Alors je sais ce que l’on va me dire: Il faut du temps pour améliorer l’efficacité d’une nouvelle archi, c’est vrai, mais vu le retard de la puce de NVidia on est en droit d’attendre une carte qui laisse sur place toutes ses concurrentes* …

Donc, pour moi, ben Fermi risque bien d’être une grosse déception…

*: Comme le GTX 280, un “monstre” à sa sortie pour tout le monde … plus tant que ça une fois que la HD 4870 était sortie …

A bon entendeur … :jap:

Je suis tout a fait d’accords FERMI va probablement etre une décéption, je dis juste que les Bench de NVIDIA sont, pour moi parfaitement réaliste :wink:

Sinon je suis d’accords :jap:

Et ils donnent quoi les Bench Nvidia? :paf:²

Fermi qui explose tout en étant 50% plus rapide que la HD 5870? :ane:

Je les trouves pas réalistes, autant que ceux de ATI d’ailleurs, les benchs des deux firmes je m’y réfère jamais, j’attends ceux des sites …
Edité le 25/03/2010 à 22:03

pour le nombre de fois que nvidia se sont ouvert la trappe pour rien, je ne pense pas que sa soit fiable