Le nouveau modèle d’intelligence artificielle d’OpenAI, baptisé O3, pourrait afficher des coûts d’utilisation bien plus élevés que prévu. Une estimation évoque un tarif exorbitant de 30 000 dollars par tâche complexe, soulevant des questions majeures sur son accessibilité et le modèle économique des IA de pointe.
30 000 euros par tache complexe, c’est pour s’accorder avec la vraie valeur du plan stargate à 500 000 000 000 ( 000000000000000000000 en dollars CFA)
On peut avoir des exemples de tâche complexe, afin de participer à la ruine open ia ?
Et ca ne sait toujours pas faire une chaine de cote que je fessais en seconde.
Bref autant pour certains trucs c’est pas mal meme bien, mais il est peut-être temps de travailler sur l’optimisation de la puissance
Ça fait un moment qu’ils ont cassé le thermomètre pour faire les mesures.
Entraîner un modèle sur les tests qu’il peut subir est contraire à toute étique scientifique.
Circulez, il n’y a rien de bon que du bidon.
Quand on repère une ânerie de ChatGPT qu’elle fait du buzz. Il y a une équipe qui code en dur la réponse !
C’est malheureusement devenu pathologique dans la high-tech.
Quand une équipe de Telsa, piste tous les parcours d’elon Musk pour tout baliser, pas d’étonnement à ce qu’il trouve sa conduite autonome géniale.
Le cassage de thermomètre est une pratique généralisée dès qu’il y a des objectifs inatteignables sur les équipes.
On mesure une performance avec des indicateurs mais jamais les mesures doivent devenir un objectif… C’est a ce moment que le thermomètre est cassé et ensuite c’est de la navigation à vue.
J’ai connu des personnes toutes à l’objectif qui étaient devenue sans foi ni loi pour y arriver.
J’ai du mal à comprendre comment quelqu’un arrive à ce chiffre de 30 000 € par tâche, honnêtement. On sait qu’un serveur équipé de 8 GPU A100 est généralement loué pour environ 7 370 € par mois. En considérant que ce serveur fonctionne environ 720 heures par mois, ça revient à à peu près 10 € par heure pour l’ensemble du matériel. Et si on divise ce coût sur, disons, 1 000 requêtes traitées en une heure, on se retrouve avec un coût d’environ 0,01 € par requête. Même en rajoutant les frais d’électricité, de refroidissement et de maintenance, le total reste dans les centimes, voire moins.
Alors, sérieusement, comment pourrait-on justifier un coût de 30 000 € pour une seule tâche ? Peut-être qu’il y a une confusion avec d’autres types de dépenses (comme le coût de l’entraînement initial du modèle, qui est certes colossal) ou bien c’est carrément une hyperbole pour choquer. Au fond, tout le système repose sur un modèle économique d’amortissement sur des millions d’interactions quotidiennes. Bref, c’est impossible d’arriver à 30 000 € par requête quand on met tout en perspective.