Tesla met fin à Dojo, son supercalculateur interne développé pour entraîner ses systèmes d’IA. Plusieurs ingénieurs de l’équipe sont partis rejoindre une start-up concurrente. Cette situation a conduit Tesla à revoir sa stratégie.
Au lieu d’atteindre 100 exaflops, ils ont fait 1 flop.
et le Dojo a fait tapis, les rats quittent le navire.
Quelle taille ? 10×10 cm ?
Beaucoup trop de rats quittent le navire pour maintenir Dojo à flot des projets stratégiques.
En même temps le navire est sous la coupe d’une ordure de capitaine qui trace sa route selon ses humeurs de sociopathe.
Au bout d’un moment les rats en ont marre.
je pense aussi que c’est lié à la forte concurrence à la débauche de compétences qui explose dans le domaine de l’IA… pléthore de startups avec énormément d’investisseurs qui sont prêts à payer des talents autant que des joueurs de basket en NBA…
Des ingés qui quittent le navire ainsi, c’est déjà qu’ils ne croient plus au produit.
Ou qu’on leur propose mieux ailleurs… Actuellement, certaines boites proposent un bonus à l’entrée, donc juste pour accepter de rejoindre l’entreprise, de plusieurs centaines de milliers de dollars. OpenAI, Meta, X, Microsoft sont toutes des entreprises intéressantes en ce moment pour un chercheur en IA. Dans un univers où l’employé est considéré comme un actif avec une relation transactionnelle, il a raison de ne pas être attaché un une entreprise (qui n’hésitera pas à le dégager le jour où l’entreprise n’y retrouvera pas son compte).
"Cette tuile peut effectuer 9 quadrillions de calculs en virgule flottante par seconde, optimisée pour l’entraînement de l’IA. Je l’ai vue de près aujourd’hui. Chaque tuile de 15 kW contient un réseau de blocs de 5 x 5, chacun composé de 12 piles de modules multipuces D1, avec blindage RF entre elles. Il s’agit de puces d’IA personnalisées par Tesla, avec 362 téraflops par bloc. Des connecteurs tout autour fournissent une bande passante inter-tuile de 36 Tbit/s. Le supercalculateur Dojo ExaPod possède 120 de ces tuiles, pour 1,1 exaflops de calcul optimisé pour l’IA - "
C’est impossible, ou alors tu confonds les unités de mesures francophone et anglophone. Le plus puissant supercomputer actuellement, El Capitan, fait 1.742 trillions de calculs à virgule flottante, soit 5 166 000 fois moins…
9 quadrillions (YottaFLOPS), c’est 9^24, 9 trillions (exaFLOPS), c’est 9^18.
Pour info, ce n’est PAS @Melina_Loupia qui a écrit ça mais Steve Jurvetson comme indiqué sous la photo !
Oui, je sais lire, mais quand on traduit, on le fait correctement, je doute fort que Steve Jurvetson l’ait dit en Français !
Il se passe la même chose chez OpenAI.
Pas dans les mêmes proportions, puisque chez Tesla il y a eu tellement de départ qu’ils ont dû arrêter le projet…