Les processeurs
Xeon Scalable « Ice Lake » de troisième génération pour serveurs sont officiels. Intel a misé sur le passage au 10 nm et sur l’IA pour se démarquer de la concurrence.
Il était temps qu’ils rattrapent un peu de leurs retards, tout cela est bon pour la concurrence et la baisse des prix.
Encore un petit effort pour réussir à côtoyer le sommet en 7 et 5 nm.
Je ne me rappelle pas un tel gain annoncé depuis longtemps chez Intel, surtout si les routines de calculs de tenseurs voient un gain tel qu’annoncé.
Par contre, je me demande de quelle façon ces performances vont varier si on utilise autre chose que TensorFlow.
On va avoir de belles performances avec Alder Lake si on a les mêmes différences de performances coté grand public.
« …jusqu’à 2,65 fois supérieures en moyenne par rapport aux systèmes vieux de cinq ans. » Heu, on est largement en dessous de la loi de Moore si ce n’est pas une performance par watt ou par coeur, sans référence à ce qu’il teste, c’est un chiffre creux.
La loi de Moore est obsolète depuis bien longtemps Même Gordon Moore le disait que ça tiendrait pas sur le long terme cette « règle ».
La loi de Moore parle du nombre de transistors. Elle est encore d’actualité, et même explosée si on considère les GPU.
Les GPUs évoluent plus rapidement que les CPUs c’est normal !!!
Oui avec les GPU la loi de Moore continue d’avancer. Avec les A14 en 5nm aussi.
Le dernier GPU nVidia présenté comptera 100 milliards de transistors.
C’est Intel qui patauge avec son 14nm++ là ils sont enfin passés au 10nm pitch équivalent 7nm TSMC. TSMC est sur le 5nm, 5nm + en mai pour le A15 d’Apple. Et la suite est en route. L’EUV aura finalement empêché la loi de Moore de s’arrêter cette fois. Après le 3nm, 2nm, 1nm
Justement, un nm c’est la taille d’une molécule d’eau. Et 0,1nm le diamètre d’un atome de silicium qui constitue nos semi-conducteurs. On se rapproche donc des limites de la matière, c’est de plus en plus difficile d’avoir un signal clair dans nos composants. Reste à voir jusqu’où on ira, avec quels matériaux et si cette étrange prophétie de Gordon Moore continuera à se réaliser.
A propos du DL et ML. Ce n’est pas plus rentable d’exécuter l’apprentissage des réseaux de neurones avec des GPU plutôt qu’avec des Xeon ? Ampere notamment a des Tensor Cores en masse optimisés pour les calculs matriciels sur tous les types de variables (INT8, FP16, FP32, etc.) et les performances en TeraFlops sont assez incroyables. Est-ce qu’un Xeom Ice Lake peut s’aligner face à des archi aussi massivement parallèles ? la faiblesse des CPU c’est qu’ils sont généralistes alors que les GPU sont optimisés pour le calcul matriciel massivement parallèle. Enfin 40 cores chez Intel ou 64 chez AMD c’est aussi bien parallèle vous me direz.
Oui dans l’absolu le GPU se prête mieux au DL, mais il faut déjà avoir le matériel. Ça coûte plus cher d’avoir du matériel dédié que généraliste. En environnement serveur cela demande des compétences supplémentaires. À moins d’être dans un métier se limitant à l’établissement de modèles, la question de l’investissement par rapport au temps d’attente sur une tâche spécifique se pose. Surtout que les prix s’envolent pour les cartes avec beaucoup de mémoire.
Perso faire un grid brute force réparti sur une grappe de serveurs généraliste me va très bien, cela me laisse le temps d’avancer sur les pré et post traitement