Le nombre de data centers augmente très vite aux États-Unis, avec le développement de l’intelligence artificielle. Et ça a un impact direct sur les factures d’électricité des Américains !
Evidemment, puisque nous sommes dans un système capitaliste fonctionnant de ce fait, sur la loi de l’offre et de la demande. Je ne serai pas étonné d’une augmentation de 20 % pour les usages domestiques et de 30 % pour l’industrie.
En France ça ne gênera personne puisque les français confirment à chaque élection leur amour du libéralisme.
Je pense qu’il faudrait encore doubler le coût pour qu’enfin les centrales nucléaires soient rentables, puisque les français ont les moyens.
« Vous n’avez pas d’argent, bah vous n’avez qu’à en acheter » lol ! ![]()
Quel est l’usage d’un data center pour l’IA ?
Est ce de la donnée ? Ou juste de la puissance de calcul ?
Si c’est de la donnée est ce que du coup on restock de la donnée déjà stockée quelque part puisque l’IA recupere de l’info d’internet ?
C’est peut-être bête ce que je dis ![]()
De base, l’élément principal qui est nécessaire, c’est effectivement la puissance de calcul.
Côté données, il y a 3 cas à distinguer :
- l’entraînement d’un modèle,
- la simple exécution d’un modèle existant,
- l’utilisation d’un modèle existant avec accès à des données complémentaires.
Pour l’entraînement, il faut un énorme stock de données, éventuellement enrichies de métadonnées pour l’apprentissage (par exemple, pour un modèle de reconnaissance d’images, on va avoir un gros stock d’images, et pour chaque image des annotations décrivant leur contenu, généralement faites par un humain ou par une autre IA puis vérifiée par un humain). Ces données viennent souvent d’Internet, mais il est très fortement préférable de les copier localement pour des questions de performance et de reproductibilité (une image distante identifiée par son URL, son contenu peut éventuellement changer…).
Pour l’utilisation d’un modèle, les seules données nécessaires sont le modèle lui même (quelques dizaines ou centaines de Go, selon la taille du modèle, à répliquer sur tous les noeuds).
Pour l’utilisation d’un modèle avec un enrichissement, il faut en plus fournir des données d’enrichissement, mais là il n’est pas forcément nécessaire de les stocker dans le datacenter, elles peuvent être cherchées via un moteur de recherche externe. L’idée à ce niveau c’est que quand tu demandes quelque chose à ton modèle, au lieu de simplement lui passer la question brute et de le faire répondre seul, on fait un prétraitement qui à partir de la question va aller chercher des documents qui pourraient être pertinents sur le sujet, puis ces documents sont envoyés au modèle avec la question pour qu’il les utilise dans la construction de la réponse. Donc en théorie, on peut tout a fait faire une bête requête sur un moteur de recherche public pour aller chercher des documents et les utiliser, sans avoir à les stocker dans le DC. En pratique, on aura tout de même généralement de meilleurs résultats si le service construit son propre index, comme le fait un moteur de recherche, car l’index pourra alors être optimisé pour cet usage. En particulier, on va pouvoir utiliser son propre algorithme de recherche par proximité sémantique en langage naturel, qui pourra être dérivé du modèle IA, sémantique pour trouver des documents, plutôt que d’être « limité » par les capacités d’un moteur de recherche public, pas forcément toujours très bons pour le langage naturel.
Dans ce dernier cas, on va du coup, en plus du modèle, stocker à minima l’index, et éventuellement aussi une partie des documents qui ont servi à le construire, mais pas tout, ça serait vite trop gros… On garde plutôt une référence, et tant pis si le document fini par ne plus être accessible, on le retirera alors de l’index.
Faisons leur payer du coup, ils viennent profiter et c’est non qui payons ? D où elle est logique cette logique ?
Simplement la loi de l’offre et de la demande… Si la demande sur le marché de l’électricité augmente mais que l’offre n’augmente pas d’autant, les prix montent.
Et c’est pas « nous » qui payons pour « eux qui profitent ». C’est tout le monde qui paye.
Cela dit, en France les particuliers sont en partie protégés de ça, grâce au tarif réglementé, qui n’est pas complètement soumis à la loi du marché.
Avec les coups fourrés des écologistes et des politiciens, je ne suis pas du tout certain que le prix de l’électricité pour les pros puisse revenir un jour au niveau d’avant la guerre en Ukraine.
J’ai été obligé de retirer tous les serveurs un peu anciens (mais qui fonctionnaient parfaitement bien) comme les DELL R820 à 4 cpu de ma baie 42U en DataCenter car je payais 370 euros ht par mois pour 0,5 Kw/h de dépassement 24h sur 24 ! A ce prix-là, j’ai investi dans deux serveurs DELL R650 full NVMe pour en retirer au moins un bénéfice sur le plan technique avec la faible latence sur les bases de données PGSQL par rapport aux SSD SATA.
Même les Synology rackstation avec 36 disques de 4 TB consommaient trop, remplacés par un seul avec douze 18 TB.
Et surtout le réchauffement climatique , mais ca c 'est pas dans votre logiciel
Le prix du kwh en Ohio est de 0.8ct$, il passerait donc à 0.96ct$. En france, il est entre 20 et 27cts. En quoi cela attire les GAFAM ?
Pour les DC des GAFAM, la France n’est pas en concurrence avec les USA mais avec les autres pays de l’UE, car les GAFAM ont besoin d’avoir des DC en UE pour des questions de performances.
tout cela pour générer des photos et des fausses vidéo