Apparement SGI l’a passé à 256 procs (sûr) et sans doute à 1024.
Mais après ça dépend des machine que l’on a.
10000 procs avec des machines 1024 procs ça fait 10 machines
10000 procs avec des machines 32 procs ça fait 312 machines.
Et tu n’as aucune garantie a priori qu’une architecture soit plus rapide que l’autre… sans compter la maintenance (plante 1 machine de 1024 procs et tu perds 10% de la puissance… )
c bien bo c super calculateur!!
mais bon qd on sais que la moitié de la puissance de calcul de la terre est constitué par les puces electronique (carte bancaire ,sim et zautres) on se dis que finbalement sufi de connecter nos ptites puce
:heink: Tu as les sources de ton info ?
Sachant qu’aux USA et au Canada, ils n’utilisent pas de carte bancaire avec Puces… et sachant que le taux d’équipement en matériel informatique a grimpé:
43% des foyers Français en 2004
43% des foyers de L’Europe des 25
Et le téléphone portable atteint autour de 65 % de la population Française.
Je ne compte pas l’équipement informatique dans les entreprises, m’enfin ça m’ammène à être sceptique sur ton info…
nstallé dans le centre de Bruyères-le-Châtel, ce superordinateur, qui sera mis en fonctionnement mi-2005, placera la capacité de calcul du CEA dans les premiers rangs mondiaux et au premier rang européen.
Conçu par la société BULL, à partir de ses serveurs NOVASCALE reliés par un réseau de la société QUADRICS, il sera composé de 4532 processeurs de la nouvelle génération dINTEL : ITANIUM Montecito. Par lutilisation de processeurs standards et lintégration de logiciels ouverts sous LINUX, larchitecture de la machine permet daccéder aux puissances informatiques requises .
Cet ordinateur constitue la deuxième étape du volet numérique du programme Simulation mis en place en 1996 et destiné à garantir la fiabilité et la sûreté des armes de la dissuasion après larrêt définitif des essais nucléaires. La dernière étape, à lhorizon 2010, devrait conduire à une puissance de calcul de plusieurs centaines de téraflops.
Bull: le retour des morts-vivants !
Heureusement que le gouvernement est là pour sauver le dernier constructeur informatique français ! Et encore, constructeur est un bien grand mot !
Voilà qui va faire de la concurrence acharnée au blue Gene d’IBM
C’est le combats de chefs, mais les techniques mises en uvre sont différentes:
D’un côté du gros, lourd et cher: l’Itanium 2: c’est très puissant, ça consomme beaucoup, c’est très cher
De l’autre, c’est petit, ça consomme rien et ça coûte pas cher, mais il faut en mettre beaucoup pour que ça soit efficace.
Par lutilisation de processeurs standards
Ça se discute, mais l’Itanium est TRÈS loin d’être un standard (à mes yeux). Il faut des compilos très spécifiques pour en tirer la quintessence
On s’en fou : c’est moins cher au Gf car le problème d’un cluster c’est l’interconection, pas le processeur. L’élément limitant, ce n’est pas le procs.
Bref…
sinon, itanium est un standard dans la mesure ou ce n’est un produit créé spécifiquement pour la commande comme pour les ordis vectoriels.
On s’en fou : c’est moins cher au Gf car le problème d’un cluster c’est l’interconection, pas le processeur.
Ça, ça dépend du type de calcul qui va tourner sur ton ordi.
Mais plus tu augmentes le nombre de procs, plus les interconnexions doivent être efficaces, c’est certain.
Et moins cher au GF
là encore ça se discute, mais j’ai pas tous les chiffres nécessaires à ma disposition.
Mais plus tu augmentes le nombre de procs, plus les interconnexions doivent être efficaces, c’est certain.
Ben… pour 4500 procs de calculs, il vaut mieux un bon interconnect…
Et moins cher au GF
Je les ai (Et le CEA aussi)
Mais ne te méprends pas, le procsseur n’est pas le problème principal. C’est le réseau qui est le vrai problème vu les tailles de ces clusters. (communication intra/inter machines)