Je souhaiterais pour le fun créer un petit centre de calcul avec quelques vieilles machines de récupération dans le but d’en faire un petit centre de calcul.
Le but n’est clairement pas d’être utilisé en entreprise, mais seulement de comprendre le mécanisme de fonctionnement de ces centres de calcul.
De ce fait, je dois maintenant trouver une distribution Linux me permettant d’effectuer cela.
Comment se passe t’il ? Il y a une machine serveur ainsi que des machines clientes qui effectue les calculs ?
Il y aurait donc deux “distributions” différentes pour différencier la machine serveur et la machine cliente ?
En général, c’est toujours ce principe : un maitre et des machines clientes.
Après la distribution est la même : la différence c’est que tu as d’un coté un logiciel qui officie en tant que serveur et de l’autre la version cliente sur les workers ( ferme de batch par exemple )
Ces mécanismes sont assez classiques donc tu peux utiliser une distribution de ton choix mais il vaut mieux s’orienté sur une solution plus pro : pour du linux du Redhat ou équivalent ( CentOS par exemple )
Bonjour,
quelques éléments de réponse à l’aide d’un exemple qui peuvent t’aider. L’expérience LHCb du CERN pour sa ferme de calcul utilise la configuration suivante :
Un serveur central sous Scientific Linux CERN 5 (basé sur RHEL 5, donc), installé en RAID logiciel, exporte un système de fichier racine. Celui-ci sera partagé par plusieurs autres machines, des nuds (généralement 27). La configuration se faisant notamment à l’aide des outils system-config-netboot. Les nuds fonctionnent uniquement sur le réseau. Leur disque inutilisé est pris en tant que swap. Chaque nud est donc un worker (en fait, chaque cur d’un nud est un worker).