Tandis que les géants de la tech investissent massivement dans les infrastructures IA, il n’y a encore aucune sûreté quant à la rentabilité globale de ces opérations. David Cahn, analyste chez Sequoia Capital tire la sonnette d’alarme.
La création d’un modèle d’apprentissage coûte très cher, il faut beaucoup de gpu et beaucoup de personnel pour l’apprentissage. Mais pour l’inférence, c’est à dire, l’utilisation du modèle, les NPU sont moins consommateurs, en particulier les puce analo/numériques ( type GROK) dont la conso est en moyenne 30 fois moins consommatrice que des NPU digitaux. Les coûts d’exploitations ne seront pas si élevés, des solutions existent,et si elles n’existent pas encore, un peu ( beaucoup ) de science et d’intelligence y trouveront les solutions.
L’article entier peut être résumé par : une seule personne pense que.
Son avis est certes pas inutile et digne d’intérêt, mais en tant que journaliste normalement on va voir s’il y a un consensus des experts autour de cette question non ?
Reformuler et vulgariser fait parti de l’exercice d’un journaliste, ce qui est, je pense, bien fait ici. Il manque vraiment que la recherche de l’existence ou non d’un consensus pour que ce billet de blog se transforme en un article de presse.