Commentaires : Utiliser les serveurs comme chauffage gratuit plutôt que de les refroidir, en voilà une bonne idée

Une entreprise britannique propose aux particuliers d’installer une unité de cloud computing sur leurs chauffe-eau.

C’est peu ou prou ce que propose Carnot computing (francais au passage) depuis des années.
Mais de mémoire ce n’était pas pour les particuliers.
Un truc comme ca je signe direct. C’est super s’ils arrivent à développer ce « business ».

2 « J'aime »

Il y a aussi a Paris dans des HLM : https://www.capital.fr/immobilier/et-maintenant-des-logements-chauffes-gratuitement-grace-a-des-ordinateurs-1391704

2 « J'aime »

pas bête pour le chauffe eau, utile en hiver comme en été

1 « J'aime »

Pas mal mais quid en cas de canicule ?

Le truc a intérêt à être bien sécurisé parce que mettre un serveur chez un particulier… malheureusement tout le monde n’est pas honnête donc quelqu’un de malintentionné qui déciderait d’arriver d’une façon ou une autre de récupérer les données peut-être sensible d’un de ces serveurs ou les corrompre ou que sais-je encore, ça serait pas terrible.
Sinon l’idée de base est plutôt intéressante mais je vois plus d’intérêt à grande échelle en gros proposer aux habitations proches d’un data centrer de pouvoir se chauffer à moindre coût là on ne ferait plus que des circuits de chauffage qui pourrait aller dans les immeubles ou maisons proches (quid de la déperdition qui définirait le rayon d’habitations éligibles) les données continueraient à garder une sécurité celle du data center lui-même et on exploiterait l’idée

1 « J'aime »

Et quand il va falloir gérer tout l’infra hardware ça va être super pratique …

À un moment ils avaient fait un radiateur à base de 1800x qui minait pour chauffer. Je ne sais pas si ça a commercialement fonctionné. En plus de ne plus rien rapporter assez rapidement.

En cas de canicule, la puissance de calcul devient indisponible.

Tout a fait, au début Qarnot (avec un Q) proposait exactement ça, ouvert à tous. Tu achetais le radiateur (cher, 2000€ de mémoire) et ils prenaient en charge l’électricité.

Ensuite ils se sont spécialisés vers les entreprises et promoteurs, et ils ont aussi remplacés pendant un temps le calcul scientifique par du minage de cryptos avant de revenir au calcul.

C’est destiné à des projets qui ne sont pas excessivement sensibles. Le genre de projets qui en fait tournent déjà aujourd’hui beaucoup chez des particuliers, via World Community Grid ou équivalent.

Ils ajoutent « simplement » ici une allocation dynamique de la puissance de calcul en fonction du besoin de chaleur.

Ça aussi ça se fait déjà en fait. Par exemple à l’EPFL, ils ont une résidence étudiante chauffée par leur centre de calcul.

La difficulté, c’est que par contre ça supporte vraiment pas la distance, vu que la température de l’eau est pas élevée (un réseau de chauffage urbain, ça monte à pas loin de 200° pour pouvoir tenir la distance, même l’eau de retour est beaucoup plus chaude que l’eau la plus chaude d’un datacenter…).

1 « J'aime »

Alors ça je prends !
Bon, dans ma forêt il faudrait voir si la bande passante accessible est suffisante mais un forfait où l’exploitant du serveur s’occupe de toute l’infra et en plus te paye ton eau chaude je trouve ça juste génial. En plus j’ai de la place à louer à la cave.
Après, pour la sécurité des données c’est deux réseaux indépendants qui ne se croisent pas je vois pas le souci, si quelqu’un veut bien m’éclairer ?

Vu la boue qu’il y a à enlever des cumulus… Les circuits vont être obstrués rapidement.
Selon les fiches des fabricants de cumulus, c’est une purge tous les ans ! J’ai appris ça quand j’ai du remplacer le mien ’

On faisait déjà ça dans les années 80 dans l’entreprise pour laquelle j’ai travaillé : évacuer la chaleur produite par les serveurs dans le bâtiment l’hiver (sans autre solution de chauffage) et utiliser des bassins de rétention d’eau (de plusieurss centaines de m3) pour faire du watercooling (oui dans les années 80) l’été.
Puis la microinformatique est arrivée alors on a pensé qu’on avait plus besoin de gros DC, et maintenant avec le développement des clouds en tous genres on doit réapprendre à gérer cette énergie mais il n’y a rien de neuf, on a juste bouclé la boucle.

Les cumulus s’encrassent parce que c’est un circuit ouvert, qui est régulièrement alimenté en nouvelle eau, avec ses impuretés.

Pour le chauffage via serveurs, il y a normalement deux circuits, un circuit primaire qui sert à refroidir le serveurs et un circuit secondaire qui est soit un circuit dédié uniquement au chauffage, soit un circuit ouvert si c’est le circuit d’eau chaude sanitaire. Le primaire est lui toujours une boucle fermée, qui n’accumule donc pas les impuretés. Comme dans la plupart des datacenter modernes, qui ont déjà un circuit primaire liquide, refroidit ensuite par différents moyens (secondaire ouvert, secondaire fermé + tertiaire ouvert, refroidissement à air, clims, etc…).

Oui je vois bien l’idée chez le particulier mais je reste dubitatif quant à la sécurité quand même…

Merci pour l’info sur l’EFPL

1 « J'aime »

Dit autrement, c’est, quand au maximum, un radiateur de 200W.

Je pense donc qu’on peut sérieusement penser que les calculs et projections sur un an ne doivent pas être prise en compte et revue plutôt sur une base de 9 ou 10 mois grand maximum. Ceux qui pensent que les canicules et épisodes de très fortes chaleurs sur plusieurs semaines vont devenir autre chose que des phénomènes réccurents vont en être pour leur frais. J’imagine qu’une boite qui ne peut proposer de la capacité de calcul que 10 mois sur l’année risque d’avoir quelques difficultés à trouver des clients sérieux si à côté ils n’ont pas la capacité équivalente en datacenter bien energivore et polluante pour assurer cette capacité lors des grosses chaleurs.

Bref, je veux pas être le rabat-joie de service, mais perso, avec 28 à 30° dehors depuis 10 ou 15 jours, j’aurais qu’une envie, c’est de débrancher ce truc qui produit encore plus de chaleur chez moi. Bref, à voir comment tout ça à été conçu et comment ça s’adaptera à ces contraintes qui vont exister plus que jamais.

Je m’étais renseigné pour la France, avec l’arrivée de la fibre dans notre résidence.

Conclusion : c’est mort. Le marché ne cible pas le particulier, y compris pour une demande groupée dans une résidence (>200 logements).

Tout est verrouillé via promoteurs sur des programmes neufs.
Et pendant ce temps là, on entend parfois des journalistes en mal de contenu (contexte général, ne je cible pas cet article en particulier) dire que c’est une solution géniale pour les gens qui ont des grosses factures de chauffage.

Transformons la totalité des piscines municipales et ecoles de tout poil en data center…:smile:

Autant les datacenters qui peuvent recycler la chaleur pour chauffer les habitations ok, mais là, dans un tel cas beaucoup de questions peuvent se poser :

*Quel est le débit utilisé par les serveurs ? Important à savoir si le particulier est en ADSL.
*Quels sont les services distribués par ces serveurs ? Il est intéressant de savoir quels services seront hébergés chez l’habitant, et s’ils peuvent être sujet ou non à des convoitises extérieures. Généralement, tous serveurs en ligne est sujet à des piratages.
*Les serveurs sont-ils correctement sécurisés ? Bien que le risque 0 n’existe pas, et que ledit server sera branché sur le réseau local de l’habitant, il faut connaître les procédures de sécurisation en cas de compromission du serveur et par ricochet, de tous les équipements connectés au même réseau.

En l’état, malgré les économies réalisables et d’un point de vue strictement sécurité, je ne recommanderais pas de sauter le pas.

Ça peut intéresser tous ceux qui veulent de la puissance de calcul à bas coût quitte à ne pas l’avoir en permanence. Et donc notamment des projets scientifiques, qui peuvent tout a fait s’accommoder de variation de la puissance disponible.

Ça fait des décennies qu’existent des systèmes de calcul distribués, sans aucune garantie sur la disponibilité de la puissance de calcul (puisque dépendant de particuliers qui veulent bien donne de la puissance), et ça fait des décennies qu’ils n’ont aucun mal à trouver des projets pour utiliser cette puissance de calcul.