Virtualisation imbriquée ? Quel est le but d’avoir un hyperv dans un hyperv ?
Pas un Hyper-V dans un Hyper-V, mais en l’occurrence un VMWare dans un Hyper-V. Et ensuite des QEmu dans ce VMWare.
La raison de base, c’est que l’hôte Windows 10 est déjà en fait une VM Hyper-V dès que tu actives certaines fonctionnalités (WSL2, Credential Guard, Device Guard). Donc dès que tu veux faire tourner en plus une VM dedans, soit tu fait une VM Hyper-V (mais trop limité…) qui sera directement gérée par le même hyperviseur que le système pseudo « hôte », soit tu utilises un VMWare ou un VirtualBox, et là tu te retrouves à imbriquer des VM.
À ce niveau là, ça marche. Parce que Hyper-V fournit désormais une API permettant à des hyperviseurs tiers de fonctionner par-dessus le sien (API WHP).
Mais dans mon cas, le besoin était en plus de pouvoir faire tourner des Qemu dans la VM VMWare, parce qu’à l’époque je bossais sur Kata Containers (un système de conteneurs qui, pour ajouter une couche d’isolation supplémentaire, exécute chaque conteneur dans une VM légère). Et dans ce cas, faut que VMWare expose à son tour VT-x/AMD-V dans la VM. Ce qui nécessite que Hyper-V le lui permette.
Un autre cas d’usage, c’est d’avoir par exemple une VM de développement dans laquelle on doit faire tourner des émulateurs d’appareils mobiles, émulateurs qui reposent en général sur la virtualisation (Hyper-V pour l’émulateur de Visual Studio, Intel HAXM pour celui de Android Studio).
Pour ça, il faut être sous Windows 11 quand on a un CPU AMD, alors qu’un Windows 10 à jour suffit avec un CPU Intel (s’il a VT-x et EPT, Hyper-V supportait le nesting dès 2015, avant même que WHP n’ouvre la voie à des hyperviseurs tiers).
Pour quoi faire autant de cœurs ?? Mon Pc Intel Inside i7 4 cœurs me suffit largement ! C’est aussi économie en énergie et écologie !
Ça va faire du bon travail ça. Du bon travail comme on l’ aime.
On va dire à Google ou AWS d’utiliser des vieux i7 pour l’écologie…
Soit dit en passant, il ne faut pas oublier que les procs récents consomment moins par instruction, même si la consommation électrique semble exploser!
Je bave …
Tout comme je me fais autant plaisir sur mon 286 à 16Mhz et ses 4Mo de RAM Et par exemple, pour moi un Pentium 4 Prescott de 2001 est déjà un monstre énorme de puissance.
Là c’est pas trop le sujet, disons qu’aujourd’hui il faut pouvoir reconnaitre la puissance BRUTE d’un cpu.
Et même si cette puissance est presque toujours gâchée par un manquement de programmation, la puissance brute trouve toujours de bonne applications, etc.
Bref, la puissance disponible créée son marché, etc.
Ce ne sont pas des CPU destinés aux PC. C’est fait pour les serveurs et calculateurs.
Et là de manière générale, plus tu met de cœurs dans une machine, plus tu réduis ton impact environnemental (ressources et énergie consommées pour la fabrication, énergie consommée pour l’utilisation et énergie consommée pour le recyclage en fin de vie) pour répondre à un même besoin.
Pour savoir qui a la plus grosse entre Intel et AMD il existe un bon benchmark : les supercalculateurs.
Dans l’ordre (source pour la liste • Graphique: Avec Frontier, l'informatique entre dans une nouvelle ère | Statista) :
- FRONTIER >> AMD EPYC
- FUGAKU >> ARM
- LUMI >> AMD EPYC
- SUMMIT >> IBM Power9
- SIERRA >> IBM Power9
- SUNWAY TAIHULIGHT >> Shenwai RISC
- PERLMUTTER >> AMD EPYC
- SELENE >> AMD EPYC
- TIANHE 2A >> Intel XEON
- ADASTRA >> AMD EPYC
C’est un peu la loose pour INTEL, même si dans l’ensemble il y a dans le TOP 500 plus de supercalculateur Intel (384) qu’AMD (101), les derniers gros supercalculateurs ont totalement délaissé les archi Intel
Attention quand même avec le top 500 : les machines en tête ne tirent pas leur puissance de leurs CPU mais de leur accélérateurs (généralement dérivés de GPU), à deux exception près, Fugaku et Sunway (mais pour ce dernier c’est tout comme, il est évident qu’un CPU à 260 cœurs est conceptuellement bien plus proche d’un GPU que d’un CPU classique).
Le vrai champion du HPC, aujourd’hui, c’est nVidia. Pas AMD, pas Intel. Et, chance pour Intel, nVidia a choisi la prochaine génération de Xeon comme CPU pour ses prochains modules « clé en main » (DGX H100), alors qu’il utilisait jusqu’à présent des EPYC.
C’est aussi pour ça qu’Intel revient sur le marché des GPU, ils vont ensuite le décliner en HPC pour remplacer les accélérateurs Xeon Phi, aujourd’hui abandonnés, qui ont connu leur heure de gloire il y a quelques années, en atteignant rapidement plus d’un quart du marché (alors qu’nVidia avait plus de 90% du marché quelques années plus tôt).
Bah parce que tu me rabâches qu’Intel est meilleur en single core, et que la réf que je te donne c’est la dernière gen, donc la meilleure en single chez Intel (et j’ai pris leur plus haut de gamme).
AMD a comparé avec ce qu’il y avait à l’époque, ils ne pouvaient pas comparer avec un CPU sortir plus tard…
Oui et non, ici c’est un « assemblage » de centaines/milliers de CPU. Il y a même eu à l’époque des supercomputers avec des CPU de PS3 (IBM PPC). Ça montre bien sûr l’intérêt des CPU AMD et ARM (entre autre), le rapport perf/conso évidemment supérieur, mais ça ne montre pas quel CPU est meilleur de lui-même (sinon il n’y aurait pas ARM, enfin pas pour les perfs).
Oui, et c’est déjà sur la base de ceux de l’époque qu’on constate que les performances/coeurs sont à l’avantage des Xeon, donc pas besoin d’aller chercher la dernière génération (d’autant que le gain est de toute façon minime entre le 82xx et les 83xx).
Justement, Intel sort (en général) des Xeon tous les deux ans (avec un gain extrêmement faible entre chaque « gen » (qui ne sont pas des nouvelles gen comme on le sait tous depuis le temps mdr) donc si AMD sort le sien en fin d’année, ce qui semble être acté, ils seront au moins au niveau d’Intel en single core (vu qu’ils prennent 15-20% par gen), et donc auront le champ libre, surtout quand on voit les prix (comparé a Intel, parce que dans tous les cas c’est hors de prix pour « nous »).
Le niveau de mauvaise fois est quand même assez fort.
Oui une part importante de la puissance des supercalculateurs provient des GPGPU. Et? AMD écrase quand même Intel sur leur partie. Point.
Ah, je ne sais pas où ça coince pour hyper-V.
J’utilise des distributions Linux et un serveur Linux sous VirtualBOX.
Et le passage de windows 10 à 11 ne m’a pas gêné.
Est ce que la serie 5000 est différente ??
Concernant les comparaisons que vous avez fait entre des systèmes 2 sockets amd et 8 socket intel. Le truc qui fait surtout la différence entre les deux c’est le prix.
Une carte mère 8 socket il s’en vend très peu, car peut de gens en on besoin, et ça coûte très chère. C’est d’ailleurs plus enclins aux pannes par la complexité.
De plus chaque socket doit avoir des DIMM insérer sur les bancs mémoire associé sinon le cpu ne fonctionne pas et comme les pc standard il y a un nombre de dimm optimal pour avoir la bande passante optimale du cpu. Sinon ben on en a qu’un morceau.
Et l’interco entre tous ces cpu sur la même carte mère ça plombe les perfs.
Sinon les data center utiliserait plus régulièrement des machines avec beaucoup de socket.
Pour faire simple à chaque doublement de socket sur une carte mère on double pas la perf on fait du *1.8 et plus le nombre augmente plus ça s’écroule.
Enfin, c’est un peu comme comparé la puissance moteur en chevaux d’un AutoBus et d’un SUV au final.
On passe à côté de pas mal de chose à compter les cœurs. Vu que l’objectif final d’un 8 socket c’est pas le même que celui d’un 2 socket.
Ici je simplifie énormément mais c’est pour avoir une bonne idée de ce que c’est un 8 socket par rapport à un bisocket. Côté prix, performance et usage.
Aucun rapport …
Je parle du SMT à la place du HT !
!!! Ahhhhhhhhhhhhhhhhhhh !!!
Oui de l’hyperthreading qui s’appelle SMT chez AMD. Oui c’est tout pareil.
Le nom importe peu. Cà fait tout pareil. 1 coeur = 2 thread.
Ok Méacoulpa