Le père de ChatGPT connaît de très beaux mois, montrant à chaque nouveauté qu’il est le leader mondial de l’IA générative. Et cette réussite se répercute dans ses comptes
Bravo à OpenAI. Je leur souhaite de nombreux autres milliards.
Je vois déjà les envieux critiquer Sam Altman parce qu’il est riche !! Pathétique !!!
Ben moi je ne vois pas d’envieux, faut arrêter de se convaincre de choses qui n’existent pas …
Et les 3 milliards sont les revenus d’OpenAI et non d’Altman …
Pathétique comme dirait l’autre …
La critique porte non pas, sur les milliards, mais le fait que tu créé une fois de plus dans l’IT un monopole qui profite toujours à la même boîte.
Et les monopoles ne sont jamais bon pour l’utilisateur finale sur le long terme.
Quand il n’y a pas de concurrence, la boîte peut faire n’importe quoi même si cela me plaît pas aux clients.
Pour autant, si OpenAI n’a pas de rival à sa hauteur ce n’est pas de leur faute. Ils ne vont quand même pas attendre les autres patiemment.
Vu comme le milieu est en ébullition je doute qu’ils aient le monopole.
Ils ont clairement une grosse longueur d’avance, mais oui, il y a de la concurrence.
Et surtout, ils sont en avance sur les IA « massives », avec des modèles à plusieurs centaine de milliards de paramètres.
Or aussi bien sur les LLM que sur d’autres types de modèles, le marché va sans doute beaucoup plus s’orienter vers des « petits » modèles à quelques centaines de millions ou milliards de paramètres.
Parce que ce sont ces petits modèles qui vont permettre de tout faire tourner en local, et donc notamment de travailler sur données de l’utilisateur même lorsqu’elles sont d’un niveau de confidentialité élevé.
Les acteurs qui tireront leur épingle du jeu à ce niveau, ce sont donc d’un côté ceux qui arriveront à faire des « petits » modèles performants, y compris dans leur capacité à être ré-entrainés avec les données de l’utilisateur (parce que le RAG, ça atteint quand même vite ses limites par rapport à un ré-entrainement), et de l’autre ceux qui feront les puces spécialisées dans l’accélération de ces traitements.
Sur ce dernier point, pour l’instant ce sont plutôt les fabricants de CPU qui tiennent la corde (les NPU d’Intel ou de Qualcomm ont une meilleure efficacité que les GPU nVidia…), et c’est sans doute eux qui domineront durablement le marché grand public, mais je serai pas surpris de voir aussi des fabricants spécialisés prendre une part significative chez les utilisateurs plus exigeants. Par exemple je verrai bien les puces de Groq (spécialisées dans les LLM, donc encore plus spécialisées qu’un NPU/TPU) être très utilisés dans des serveurs d’entreprises pour faire tourner des modèles alimentés avec les données de la boîte.