Commentaires : Intel : le Core i9-11900T « Rocket Lake » à la course aux performances sur un seul thread avec le Zen 3

La nouvelle arme d’Intel pour attaquer AMD et son architecture Zen 3 s’appelle Cypress Cove. Intégrés aux nouvelles puces de bureau Rocket Lake-S (qui doivent arriver fin mars), ces nouveaux cœurs seraient capables de battre en single-core ceux des derniers processeurs Ryzen 5000 d’après un premier benchmark.

…ne savent, ne veulent, ou ne peuvent !
certains calculs dependent toujours du calcul précédent et ne pourront donc jamais etre effectués en parallèle

2 « J'aime »

Pour Intel mais pas pour les autres… ok… Il existe des applis, correctement faites qui prennent les cores dispos que tu en aies 4, 8 ou 64+ sans poser le moindre soucis. Alors faudrait que t’expliques en quoi ça serait la bérézina pour Intel ?
En fait, cela fonctionne dans l’autre sens. Un i7 10700K 8C est plus performant sous Photoshop qu’un AMD 3090X 64C… En effet, quelle bérézina pour AMD ! ^^ (exemple de prog non opti).

Certainement un trou comme la faille du prédicteur de cache chez AMD, présente depuis 2011 et qui impacte encore les Threadripper, Ryzen 7 et autres Epyc.

Y en a pour tout le monde au final :slight_smile:

Rien a voir avec intel ou autre, tout avoir avec les applis et les problemes a traiter
Un pb pouvant utiliser plusieurs coeurs:
j’ai une tres grande image et je veux y chercher qqchose.
on peut découper l’image en 64 portions (si on a 64 coeurs) et laisser chaque coeur y chercher le qqchose.
Un pb ne pouvant pas etre traiter par plusieurs coeurs:
Calculer la trajectoire d’une balle qui rebondit sur un sol irregulier.
La trajectoire est une succession de positions dont chacune dépend de la précédente.
Cela ne peut donc pas etre découpé pour etre traité par plusieurs coeurs.

ps: le « decoupage » a un cout et parfois il peut etre supérieur au gain de la parallélisation

1 « J'aime »

Oui et non.

L’idée du multicoeur ou multithread pour le logiciel est d’exécuter en distribution ce qui est séquentiel, et évidemment de paralléliser ce qui est possible.

Ainsi, en vulgarisant à l’extrême, plutôt que d’avoir :

  • Core 1 => Exécute A, puis B qui dépend de A, puis C qui dépend B

on aura :

  • Core 1 : Exécute A, Exécute C dès que B fini
  • Core 2 : Exécute B dès que A fini

L’idée est que chaque Coeur tourne à sa fréquence optimale pour exécuter sa tâche dans un temps dédié, et que chaque Coeur ne consomme en énergie ce qui est nécessaire en plus de soulager la dissipation thermique.

Alors évidemment, dans la pratique et pour une majorité des logiciels :

  • Core 1 va être à 70% car il exécutera le gros des tâches
  • Core 2-3-4 seront à 25% pour ce qui est distribuable et parallélisable

Mais au final, c’est mieux que Core 1 à 100% qui s’occupe de tout.

Pour une machine desktop, A part le rendu 3D et le montage vidéo, et en dehors des serveurs, je pense qu un processeur à 64 cœurs n apportera rien de plus qu un 8 cœurs simplement parce que beaucoup de choses ne peuvent pas être autant parallélisees.

Meilleur exemple: les jeux vidéos. Au delà de 8 cœurs, aucun intérêt. Idem pour la suite Adobe CC qui est optimisée pour 8 cœurs.

Par ailleurs, le fait qu Apple parte sur une architecture 8 cœurs pour sa puce M1 risque d inciter les devs à optimiser encore plus leur code pour ce nombre de cœurs. Quel intérêt de tout réécrire pour un nombre de processeurs qui ne représente que quelques % du marché ? (Ceux qui ont plus que 8 cœurs physiques)

Mauvais exemple, au contraire ici core 2 ne sert a rien, pire le changement de contexte pourrait ralentir l’execution globale.
Des taches sequentiels sont séquentielles, point.
des taches parallélisables peuvent elles etre distribuées entre coeurs.
Cela dépend complement des pbs a traiter.

1 « J'aime »

La suite Adobe CC est optimisée pour 8 cœurs, c est indiqué sur la fiche matérielle. Donc au delà, aucun intérêt.

Par contre, des logiciels comme Cinema4D ou 3DS Max utilisent tous les cœurs disponibles pour le rendu 3D. La aussi c est écrit et d ailleurs, ça se voit clairement lorsque les rendus sont executes.

Oui la 3D est un bon exemple, les algos de raytracing sont hautement distribuables
en caricaturant, on pourrait avoir autant de coeurs que de pixels a calculer.

Comme je le disais c’est vulgarisé à l’extrême. Mais cela reste pourtant un exemple simple à comprendre.

Tout « code séquentiel » peut être découpé en instance de codes, c’est à dire au final des tâches. Et chaque tâche peut alors être mis en « concurrence » (gérer plusieurs choses à la fois) ou en « parallélisation » (gérer plusieurs choses en 1 fois). Au final, tout dépend de l’optimisation réalisée au niveau logiciel et micro-logiciel, car évidemment, une mauvaise concurrence entraînera plus de ralentissement qu’autre chose.

C’est le même principe pour la charge de serveur et dans bien d’autres domaines (architecture de stade avec les principes de mécanique des fluides, etc.). 1 seule voie n’est pas toujours la meilleure solution (en termes d’optimisation et évolutivité).

Mais bref. On dérive du sujet initial (article).

90% du temps, les logiciels n’ont qu’une tâche à exécuter à la fois. Voire deux.
Il est souvent intéressant aussi de se focaliser sur un seul coeur pour maximiser le cache hit.

Ici, on parle des séries « T » de chez Intel qui sont les séries basse conso: on les utilise rarement pour le calcul intensif ou hautement parallélisé.

Après, je préfère voir les performances sur un gros fichier excel, c’est souvent plus parlant…

Enfin, le retour d’AMD est impressionant, mais AMD n’a jamais mis une raclée à intel du niveau de celle que intel mettait à AMD pendant des années: les processeurs des 2 marques sont très bons voire excellents.
De même pour la « claque » de l’Apple M1, elle n’est pas générale.

Intel a parfaitement raison de mettre en avant ce résultat: je trouve qu’il a du sens.

Pour le trou de sécurité, il va falloir attendre pour savoir - mais il faut aussi noter que pour exploiter les « trous » de sécurité, il faut faire tourner des processus pendant des heures à quasi à 100% du CPU, ce qui ne passe pas inaperçu…

pourquoi on parle de rocket lake qui est une génération éphémère … Alder Lake va tout bousculer au 3ème/4ème Trimestre de l’année !

Et là on verra le vrai progrès chez intel.

Intel pète les scores elle fait péter aussi la consommation électrique … plus de 250 Watts annoncés pour le prochain i9 11900K qui n’a que 8 Coeurs seulement.

2 « J'aime »

Intel la course à la consommation d,énergie pour arriver à la hauteur de AMD

ca fait déjà des mois qu’intel fait des super annonces, « mieux que AMD tout ça … »
et en magasin, aujourd’hui, faut toujours prendre de l’AMD.

On dirait qu’ils peuvent juste distiller des messages histoire, de faire oublier la supériorité d’amd, en attendant des jours meilleurs ?
Mais bon, maintenant, ça fait un moment qu’on les voit défiler ces messages, ET ?

1 « J'aime »

Score d’un Mac mini m1: 1749 / 7665 avec seulement 4 cœurs rapides.
Autant dire qu’avec 8 voir 16 cœurs, Intel et AMD feront parti du passé…

Intel a une réputation d’adapter les benchs à sa sauce et s’il insiste sur le single core sans parler du multi, je dis méfiance. En gros et comme toujours attendons les tests des sites et chaines indépendants.

@Bibifokencalecon Justement, c’est précisément ce que montre ton exemple, tout n’est pas parallélisable. Dans ton exemple, l’exécution reste séquentielle, il y a même un coeur de trop.
Si je dois calculer A, et B dont les résultats dépendent de la valeur de A, il n’y a rien de magique, l’opération globalement n’aura pas d’intérêt à être distribuée.

Ça me fait penser aux Pentium 4 qui étaient des gouffres en énergie et de vrais petits chauffages.

Dans la mesure ou un M1 n’équipe que des produits Apple … ça laisse de la marge.