Le géant de l’IA vient de signer un contrat de cinq ans avec Oracle. Un contrat de l’ordre de 300 milliards de dollars !
L’intelligence artificielle a produit des IA
Ah bon ? Elle est bien bonne celle-là… va falloir que vous me donniez la source d’une IA qui crée elle-même une nouvelle IA, parce que, jusqu’à preuve du contraire, ce n’est pas encore le cas (du moins pas de IA qui soient au moins au niveau de son parent).
« vit-on actuellement une redite de la bulle Internet du début du siècle ? »
Et comment !
Hé oui… Elon Musk n’est plus l’homme le plus riche du monde: la fortune du fondateur d’Oracle bondit de 101 milliards de dollars en quelques heures.
Ceci dit ça n’a rien à voir avec la news, ou presque
GPT 4.5 a été la premier en début d’été qui a été tentrainé par sa précédante. GPT 5 idem.
Lors de la ruée vers l’or, ceux qui ont gagné de l’argent, ce sont les vendeurs de pioches et autres matériels indispensables.
Pour la ruée vers les bitcoins, ce sont les intermédiaires qui font de l’argent (et accessoirement un président US qui refourgue sa crypto).
Pour la ruée vers l’IA, c’est les vendeurs de puce et de serveurs qui gagnent de l’argent…
Ce monde est merveilleux, une boite s’engage à régler 300 milliards sur 5 ans avec des revenus qui ne lui permettent pas mais le contrat est signé … et on applaudit, les spéculateurs boursicoteurs s’enrichissent sans travailler, un patron devient milliardaire par un simple fait d’annonce …
On ne parle pas d’entrainement là, on parle de production, ce n’est pas tout à fait la même chose.
Puis bon, elles ne sont pas « entrainées » par les précédentes, mais une partie du contenu d’entrainement est produit par les précédentes… encore une fois, ce n’et pas tout à fait pareil.
Tout a fait. Et ce n’est par ailleurs pas sans poser pas mal de problèmes de qualité du résultat… Les IA ont de plus en plus tendance a être empoisonnées par les données d’entrainement générées par d’autres IA, que ça soit volontairement ou involontairement (avec les données provenant d’Internet, on peut se retrouver involontairement avec des données d’entrainement qui ont été générées par une IA), parce que ça peut avoir tendance à renforcer des biais et des erreurs…
Un exemple assez flagrant aujourd’hui, c’est dans la génération d’image : avec la mode du style Ghibli qu’il y a eu il y a quelques mois, il y a eu une déferlante d’images dans ce style, et du coup on a maintenant énormément d’images qui sont très reconnaissables leur dominante jaunâtre, même quand elles sont générées sans avoir demandé ce style. Parce qu’en ré-ingurgitant la masse d’images générées, les modèles ont en quelque sorte « normalisé » ce style.
Il y a eu une très bonne étude, rapportée dans l’excellent magazine Epsilon, qui montrait (de mémoire) que passé 6-7 cycles d’entrainement avec des données issues d’IA, les IA hallucinaient dans les grandes largeurs : dans le genre, elle répondait par un traité sur la sexualité des crevettes en mer du nord quand votre question portait sur la politique économique de Donald Trump.