L’architecture Lunar Lake doit permettre à Intel de réduire nettement la consommation électrique de ses processeurs, pour mobiles surtout.
Pour pouvoir caser 20 cœurs dans un TDP de 17W, c’est pas si étrange que ça de privilégier les efficaces et d’avoir seulement 4 performants.
Ce qui est plus étonnant c’est que la capture mentionne seulement 8 threads, ce qui n’est pas du tout cohérent avec 20 cœurs, quelle que soit leur nature…
EDIT : en regardant d’autres résultats SiSoft, sur des CPU déjà disponibles, on peut voir que dans leur notation le « 20c » correspondrait en fait à 20 cœurs E (par exemple pour un 6P + 8E comme le 14600K, SiSoft note 6C + 8c).
Peut-être du coup que ce sont 4 blocs de 4 cœurs E avec 2.5 MB de cache par bloc + 4 coeurs E SoC se partageant les 4 autres Mo de cache.
Mais ça explique par contre toujours pas le coup des 8 threads…
Je soupçonne que les 20 coeurs soient plutôt 20 coeurs logiques, par exemple 6 coeurs performants (12 threads) + 8 coeurs efficaces, comme c’est déjà le cas pour gammes laptop 28W (par exemple le i7-1370P).
Non, non le « étrange » c’est parce que d’autres sources parlent d’une répartition différente. Désolé si je ne suis pas clair.
Intel propose déjà pas mal de processeurs avec beaucoup plus de cœurs efficaces, genre les Alder Lake mobile.
Comme toujours, surtout avec Intel, les TDP c’est beau sur le papier, mais attendons de voir en vrai. Sur les laptop X86 AMD est intouchable pour l’instant.
Peut être peux tu me dire cela, mais est ce vraiment utile tous ces cœurs pour un usage courant? En particulier les cœurs efficaces, que certains désactivent pour gagner des performances.
N’y a t’il pas un plafond de verre qui fait qu’au dessus de 6 ou 8, l’augmentation du nombre de cœur n’offre que peu d’intérêt sauf pour quelques applications bien spécifiques ?
J’aurais tendance à penser que sur un PC où il y a plein de petites tâches de fond qui trainent, une approche avec beaucoup de cœurs efficaces peut effectivement permettre de consommer moins : comme chaque cœurs aura très peu de travail, ils peuvent tourner à très faible fréquence, alors qu’avec moins de cœurs ils devraient monter plus haut en fréquence pour compenser. Or comme la consommation augmente généralement plus vite que la fréquence, pour une même puissance de traitement 8 cœurs à 500 MHz consommeront moins que 2 même cœurs à 2 GHz.
Après, j’ai jamais fait des tests poussés pour comparer, donc c’est un avis essentiellement théorique et intuitif.
Mais dans la mesure où cette approche consistant à multiplier les petits cœurs est à la base venue du mobile, c’est sans doute qu’elle tient la route niveau optimisation de la consommation…
Et ce qui est certain c’est que c’est aussi l’approche qui permet d’optimiser les performances à la fois pour les applications peu parallélisables et pour les applications bien parallélisables pour un même coût de fabrication, coût dépendant en grande partie de la surface du die : les quelques cœurs P sont plus performants que le même nombre de cœurs E, ce qui profite aux applications peu parallélisables, tandis que 4 cœurs E sont plus performants que un cœur P pour la même surface de silicium, ce qui profite aux applications très parallélisables.
Ainsi pour une taille équivalent, un 4P + 8E par exemple sera aussi performant en monothread et plus performant en multithread qu’un 6P, tandis que par rapport à un 24E il sera plus performant en monothread et aussi performant jusqu’à au moins 12 threads (probablement même un peu plus, puisqu’un thread sur P est équivalent à plus d’un thread sur E).
Dans le monde ARM on voit même maintenant des puces avec 3 niveaux de performances différents.
Les tâches de fond qui traînent sur un PC tournent rarement à plus de 4/5 à la fois. Car elles attendent toutes quelque chose: le disque, le réseau, la CG, l’USB, la mémoire…
Déjà 8 threads, ça n’a pas souvent une réelle utilité, 20, c’est pour des besoins particuliers.
Voyons… Aujourd’hui on a des transistors a ne savoir pas quoi en faire des milliards.
Est-ce que nous aurions pris ce chemin a la génération juste après le 8088 ?
Aurait on des cores exclusivement 64bits ou des mix 8, 16, 32 et 64 ? Il y a la combien de parties de l’os qui peuvent tourner avec seulement un 8, 16, 32, 64 bits. Combien de partie ont réellement besoin de calcul avec FPU ?
C’est certainement plus compliqué d’être économe en transistors mais on aurait peut-être démocratisé des algo très performant avec du massivement parallèle pour des grappes de 256 ou 1024 CPU 8 bits…