Commentaires : IA : AMD promet une efficacité multipliée par 20 en 5 ans

Des puces plus puissantes mais qui consomment moins en 5 ans ? C’est l’objectif que s’était fixé la société AMD et elle l’a largement atteint. Elle ambitionne désormais d’aller encore plus loin.

AMD aurait-il un peu cassé son thermomètre sur l’autel du marketing ?

https://nanoreview.net/en/cpu-compare/amd-ryzen-5-7600-vs-amd-ryzen-5-3600 /ici c’est plutot 50% pas 3000%

Et quid de l’IA, 300fps avec de la géneration d’image multiple, ça compte pour du vrai ? De la génération de model 3D par IA, sans blender ou calculs lourds de rasterisation, ça compte pour du vrai ?

Ils parlent de leur MI300x - qui est un accélérateur pour calculs parallèles; en gros une carte graphique XXL sans sortie vidéo. Que AMD compare au MI300X d’il y a 5 ans.
Voir la source et sa source :


Vidéo de la présentation. Le 35x est visible à 25:40

Oui, c’est centré sur le cloud et effectivement entre 2014 et 2020 amd prevoyait une amélioriation de X25, sur cette periode elle aurait atteint X31 donc, ça semble légitime pour ce secteur, mais c’est egalement un manière de faire parler les chiffres.

Claude l’impartiale donne « relativement » raison :

AMD et son objectif x20 d’ici 2030 : promesse révolutionnaire ou bullshit marketing ?

Alors, AMD annonce faire x20 mieux en efficacité énergétique d’ici 2030. Ça sent le marketing à plein nez ou il y a vraiment quelque chose de crédible derrière ? J’ai creusé le sujet et voici mon analyse.

Qu’est-ce qu’AMD prétend exactement ?

D’abord, il faut être précis : AMD ne parle pas de x20 en performance brute de leurs puces. Ils parlent d’efficacité énergétique au niveau rack complet pour l’IA. Concrètement, ils disent qu’un entraînement d’IA qui nécessite 275 racks aujourd’hui pourrait se faire avec moins d’1 rack en 2030, en consommant 95% d’électricité en moins.

La nuance est importante : on parle de gains système (refroidissement, alimentation, interconnexions, packaging) et pas juste de puissance brute des processeurs. C’est plus réaliste que si ils avaient dit « nos GPU seront x20 plus rapides ».

Leur track record : pas si mal finalement

Bon, AMD a eu ses heures sombres (je pense à toi, Bulldozer…), mais sur les objectifs d’efficacité énergétique récents, ils sont plutôt clean :

  • Objectif 25x20 (2014-2020) : promis 25x d’amélioration, livré 31.7x :white_check_mark:
  • Objectif 30x25 (2020-2025) : promis 30x, déjà à 38x en 2024 :white_check_mark:

Donc contrairement à Intel qui nous promettait le 10nm depuis 2016, AMD a plutôt tendance à dépasser ses objectifs sur l’efficacité énergétique. C’est déjà un bon point.

Les contraintes physiques : la vraie question

Là où ça devient intéressant, c’est qu’on approche des limites physiques. La loi de Moore ralentit sérieusement - on passe de doublement tous les 2 ans à 2.6 ans maintenant. TSMC arrive au 3nm, bientôt 2nm, mais les gains sont de plus en plus marginaux et les coûts explosent.

Les gains de processus seuls ne peuvent pas donner x20 d’ici 2030. Au mieux, on aura x3-4 via les améliorations de gravure (N3 → N2 → A16 → A14). Il faut donc trouver x5-6 ailleurs.

Où AMD peut-il grappiller ses gains ?

C’est là que leur approche système devient intéressante. Ils misent sur :

  1. 3D stacking et chiplets : AMD maîtrise déjà avec leur 3D V-Cache et l’architecture des MI300. Gains réels de x2-3 possibles.

  2. Packaging avancé : substrats verre (Intel 2026), interposers silicium, backside power delivery. x1.5-2 réaliste.

  3. Refroidissement liquide : obligatoire pour les densités futures, gains PUE jusqu’à 27%.

  4. Spécialisation IA : architectures dédiées plutôt que généralistes. x2-4 possible selon les workloads.

  5. Optimisations logicielles : ROCm, algorithmes, précision réduite. x2-5 potentiel (mais pas compté dans leur objectif).

Calcul brutal : 3.5x (processus) × 2.5x (3D/chiplets) × 1.8x (packaging) × 1.5x (cooling) × 2x (spécialisation) = x23 théorique

Le verdict : crédible mais limite

Après avoir épluché tout ça, ma conclusion est que c’est techniquement possible mais ça va être chaud. AMD a plusieurs avantages :

  • Ils ont prouvé qu’ils savaient dépasser leurs objectifs
  • Leur approche système est plus réaliste que du node-level pur
  • Ils ont déjà les briques technologiques (chiplets, 3D stacking)
  • La méthodologie est validée par des experts indépendants (Dr. Koomey)

Mais les emmerdes potentielles sont réelles :

  • Ça nécessite que TOUT fonctionne parfaitement simultanément
  • La thermique devient critique à ces densités
  • NVIDIA et Intel ne dorment pas
  • Les coûts des nœuds avancés explosent

Estimation réaliste : x12-15

Si je devais parier, je dirais qu’AMD va probablement atterrir entre x12 et x15 d’ici 2030. C’est déjà énorme et largement suffisant pour rester compétitif face à NVIDIA. Le x20 est possible mais demande une exécution parfaite sur tous les fronts.

Au final, c’est du marketing ambitieux mais pas du pur bullshit. AMD a appris de ses erreurs post-Bulldozer et communique de manière plus mesurée. Comparé aux délires Intel sur le 10nm ou aux benchmarks cherry-pickés de NVIDIA, c’est plutôt honnête.

Mon conseil : garder un œil sur les livrables intermédiaires. Si AMD tient ses promesses 2026-2027, alors le x20 devient crédible. Sinon, on saura qu’ils ont vu trop grand.

C’est vrai que ça fait vachement impartial quand tu vois ce genre de trucs : « Comparé aux délires Intel sur le 10nm » :rofl:

Et sinon, t’es encore capable d’exprimer ton avis sans faire faire une tartine à un LLM ?

1 « J'aime »

Je ne me cache pas … Et puis LLM toi même. Nah !!!