Forum Clubic

Commentaires : Project xCloud : la liste complète des jeux gratuits au lancement (page 3)

Sur le site officiel NVidia cosommation de le TI Stock : 260W avec alim 650W recommandée https://www.nvidia.com/fr-fr/geforce/graphics-cards/rtx-2080-ti/ (bench à un pique de 296W chez les numériques)

Sur un autre bench utilsation 100% CPU non OC et OC : https://vonguru.fr/2019/02/11/test-intel-core-i9-9980xe-et-evga-x299-dark// 336W

on arrive à 632W en stock et 858W OC … Yes je suis dans mon délire avec des chiffres testés donc certains officiels de leur marque :smiley:

Pour un gamer lambda une alim à 650W pour une bonne config suffit amplement (ce que j’ai perso avec un Ryzen 3700X / asus strix RX 5700XT OC / Dark rock pro 4 et niveau perf en jeu je suis large …
Mon exemple était pour une GROSSE config, que j’avais précisé d’overkill.

CE que tu ne prend pas en compte, c’est qu’un serveur calibré disons pour 10 personnes comme tu dis ne serviras pas QUE 10 personnes, mais peut être une centaine a tour de role, la puissance de l’un peut allez aider la puissance de l’autre sans rajout de matériel.

C’est clairement économique en tout point de vu, sinon toutes les fermes de serveurs dans le monde ont tord.

je pense que tu n’as pas reellement compris l’interet d’un serveur alors… donc pense a 10 pc separé avec du stockage separé et tout ce qu’il en decoule (migration, disque dur endommagé changement de materiel) entre un serveur et 10 pc virtuel et 10 pc de bureautique en terme de prix c’est pratiquement le meme prix un bon serveur 10 poste si les prix n’ont pas bougé depuis que j’ai lever le pied, aux alentours de 2000 euro minimum et les boitiers entre 150 et 200 euro chacun plus l’ecran ce qui nous revient a 5000 euro… un pc classique de bureautique on va dire entre 499 euro avec un ecran on est sur le meme tarif… MAIS en terme de gestion 10 pc est BEAUCOUP plus compliqué a gerer avec les pannes materiel les migrations de logiciel reseau poste par poste… les pannnes de disque dur la maintenance etc etc… l’avantage d’un serveur n’est pas le prix mais tout ce qu’il y a a coté… c’est bien plus pratique un serveur pour une entreprise que des ordi fixe quand c’est de la bureautique…PAR CONTRE quand on tape sur de la puissance c’est plus la meme… d’ailleurs il suffit de voir l’offre shadow… 40 euros par mois pour un pc virtuel… en 3 ans ca te fait 1500 euro…et surtout la machine N’EST PAS A TOI… par une utilisation pro le serveur est la meilleurs solution pour une utilisation jeux… sans une fibre au minimum a 1 gbs c’est mort… et surtout on est plus sur des serveurs a 2000 euro pour faire tourner 10 pc de jeux mais plus 20 000 euro PLUS le refroidissement externe parce que ce genre de serveur chauffe excessivement surtout dans des racks…

est pour 2000 pc on est a 1Mw/h… pour un serveur qui gere une virtualisation de 2000 pc… on est sur plus du double…je conseille le contributeur de venir a la prochaine reunion de supinfo… une reunion parler justement des avantages et des inconvenient du cloud gaming en juin… et la consommation excessive etait presente comme question et surtout que toute les grande entreprise planche dessus sans trouver de solution reelle…pour l’instant

T’as pas dû être attentif parce que le cloud permet au contraire, en mutualisant les moyens de consommer globablement moins. Tu te doutes bien que les entreprises s’amuseraient pas à remplacer les PC par des VM si c’était si peu efficient :wink:

L’argument principal a été donné un peu avant : un serveur qui fait tourner l’équivalent de x PC, héberge en réalité au moins 3 fois plus de machines parce qu’elles ne seront pas toutes utilisées en même temps. Et un rack de serveur qui fera tourner des milliers de machine consommera toujours moins que l’équivalent en PC, ça fait aucun doute.

si ils s’amuserait a tous changer parce que sur le moyen/long terme la maintenance et tout ce qui va avec coute moins cher… j’adore cette idée que le serveur doit couter moins cher pour que cela soit moins cher… mais personne pense a tous ce qu’il y a coté et c’est ce qu’il fait pencher la balance aux entreprise… LE COUT PAR AN AMORTISSEMENT COMPRIS ET NON LE COUT DU SERVEUR LUI MÉMÉ !!! CE SONT LES BESOINS DE L’ENTREPRISE QUI PRIMENT POUR UN SERVEUR D’ENTREPRISE ON DOIT ALLER AU PLUS EFFICACE ET SURTOUT AU MOINS CHER TOUT COMPRIS!!! je l’ai déjà dit un serveur bureautique en terme énergétique (et c’est ca de quoi on parle depuis le début) consommera autant qu’un les pc eux mème c’est un fait que tout administrateur de reseau industriel sait depuis tres longtemps…parce qu’un serveur est branché 24/24 meme sans travailler il consomme un ordinateur de bureau tu l’eteins pas le serveur…sans parler non plus de la partie logicielle… avant, la progammation devait etre optimale… actuellement la programmation un peu n’importe quoi d’ailleurs on parle beaucoup d’obesiciel dans le milieu parce que beaucoup de logiciel sont programmé sans aucune grosse optimisation. du coup on consomme plus d’energie ou le logiciel est plus lent (on le voit dans certains jeux video, les jeux qui tourne le mieux sont ceux qui ont connue d’abord une programmation pc principalement et tous les portages consoles ne sont pas tres bien optimisé) et du coup demande plus de puissance et donc plus de consommation… en terme de consommation brute un serveur brulera plus d’energie c’est un fait… plein de document scientifique existe il suffit de chercher un peu…

tiens je te renvoi au document de feunoir que j’ai traduit via google translation qui est plus haut
il y est marqué ceci :
"Les estimations des besoins en énergie liés au jeu en nuage sont basées sur la version bêta de Nvidia GeForce NOW pour Mac, le système de télévision Nvidia Shield et des systèmes analogues pour consoles, ainsi que sur la documentation publiée connexe sur l’utilisation de l’énergie des centres de données et des réseaux de données aux États-UnisLe client Le mode jeu en mode cloud nécessite généralement une consommation minimale (généralement entre 10 et 15 watts), car la majorité des traitements informatiques ont lieu à distance. Toutefois, la quantité de données en flux continu vers et depuis le périphérique client est importante. Le Bouclier, par exemple, diffuse un débit moyen de 15 Mbps, soit 6,75 Go transmis toutes les heures, ce qui correspond à environ 180 watts aux niveaux d’intensité d’électricité d’Internet prévalant en 2016. GeForce NOW utilise actuellement des serveurs rack optimisés avec huit GPU Tesla P40 Nvidia. La consommation moyenne d’électricité des serveurs, à l’exclusion des GPU, est estimée à 257 watts par utilisateur, sur la base du matériel typique et des caractéristiques de fonctionnement typiques des grands centres de données. Lors de la comptabilisation du serveur de centre de données et de l’alimentation auxiliaire, ainsi que de l’alimentation du centre de données lorsque les services de jeux ne sont pas utilisés, 340 watts sont nécessaires par utilisateur du centre de données dans les jeux en nuage.En plus des besoins Internet, la puissance totale environ 520 watts pendant le jeu. Cela exclut l’appareil de jeu à domicile qui reçoit les informations. "

on va dire entre 350 et 550w par utilisateur que le serveur PEUT recevoir… autre chose ?? sur ce bonne journée

Personne n’éteint son PC au bureau :slight_smile:

Je ne suis pas d’accord, dans notre boite on a largement diminué la consommation en virtualisant et on a des machines avec des cartes Quadro dans des bécanes de malade pour le calcul intensif.

T’as des sources pour étayer ton « fait » ?

J’ai donné un lien plus haut qui montre que le cloud consomme moins… j’ai rien compris à ton Google trad non sourcé.

je ne comprends rien à cette phrase… tu veux dire quoi exactement ? Ca fait référence à ça : « ainsi que de l’alimentation du centre de données lorsque les services de jeux ne sont pas utilisés »

Parce que cette phrase est oublie tout simplement que si une VM n’est pas utilisée, une autre le sera par un autre utilisateur… donc non, on alimente pas une salle serveur en clim et matos pour rien… jamais… parce qu’il y a toujours des VM qui tournent.

Tu veux vraiment finir sur un pavé incompréhensible et erroné sans citer la source ? Et tu penses enterrer le game comme ça ? T’es bon toi :rofl:

Edit : j’ai compris à quoi tu fais référence : https://ww2.energy.ca.gov/2019publications/CEC-500-2019-042/CEC-500-2019-042.pdf

Pour le coup, je t’invite à lire la page 39 :

The centralization of servers handling the graphics workload provides unique opportunities for efficiency improvement (technological and operational) as well as introducing carbon-free power sources

En clair : comme je disais, centraliser les machines permets de mettre en place des centrales de production d’énergie propre.

Games can also be downloaded from the Internet, which results in incremental energy use
associated with Internet data transmission. Insufficient data are available on the prevalence of
this activity, particularly by system type and model, to make rigorous estimates. Other
secondary sources of energy use associated with gaming include that in manufacturing and
distributing games and gaming equipment, but insufficient data were available to incorporate
that in the analysis.

L’étude ne tient pas compte de la dématérialisation qui impose de télécharger le jeu et les mises à jour.

L’étude ne parle que de Nvidia Now, il y a d’autres acteurs du Cloud qui ont clairement mis les moyens dans la mutualisation des moyens et donc aussi l’économie en énergie (cf mon lien plus haut).

Bref… lit un peu mieux cette étude et tu verras que c’est loin d’être un « fait » aussi simple… la question est un poil plus complexe.

Sur ce… bonne journée :joy:

Voila une analyse du rapport en français :

Le rapport souligne que ces consommations sont en baisse, mais avec l’essor de la réalité virtuelle ou le cloud gaming, ces nouvelles pratiques peuvent plomber la consommation globale. La technologie 4K, par exemple, est responsable d’un surplus de 25 à 64% en moyenne de la consommation. L’overclocking, le fait d’augmenter la fréquence du matériel pour obtenir de meilleures performances, serait à l’origine d’un tiers de la hausse de la consommation.

Une solution comme Stadia évite les problèmes liés à la 4K et l’overclocking.

Vu que Stadia n’est pas foutu de faire de la 4K en natif pour le moment, tu as raison, le problème est réglé. :upside_down_face:

Et même si ça streamait en 4K, vu la qualité graphique c’est pas un souci :wink:

quand tu aura lis le rapport en entier on en reparle… parce qu’on a pas du lire le meme rapport

Ca doit être ça… les parties citées, j’ai du les inventer :sweat_smile:

Si tu lis tout, tu lis aussi les nuances et comment le cloud peut finir par être plus vertueux… mais pour ça, faut éviter de lire uniquement ce qui nous arrange :wink: