OpenAI annonce son tout dernier modèle IA. Il s’agit d’une version allégée de son dernier modèle GPT-4o, à savoir GPT-4o mini.
Serait-ce cette version qu’on trouvera sur le SIRI d’Apple quand l’IA locale fera des requête sur CHAT GPT ? Bien hâte de tester ça sur mon Iphone 15 Pro, quand ça sortira…
À priori, non. Le modèle d’Open AI semble rester pour l’instant de fournir des modèles en tant que service, et pas des modèles qu’on puisse installer sur un terminal pour tourner en local.
Sur l’iPhone, l’IA locale utilisera à priori des modèles d’Apple, et les appels à GPT, Claude et Gemini se feront en mode connecté.
C’est dommage de brider une intelligence artificielle. Ce que l’on attend, c’est qu’elle soit de plus en plus intelligente et pas l’inverse…
Pas forcément, ça dépend beaucoup des cas d’utilisation.
Il y a des cas où un modèle allégé fait déjà suffisamment bien le travail, pour une fraction du coût énergétique et du temps de réponse d’un modèle énorme.
En particulier quand on veut travailler sur des données privées, et que le modèle n’a donc besoin que d’avoir une bonne capacité de language, sans avoir besoin de connaissances énormes…
J’ai des cas d’usage sur de l’analyse de documents ou un petit Mistral 7B fait sensiblement (même niveau de satisfaction utilisateur) aussi bien que GPT-4, mais en tournant localement, éventuellement sans même utiliser un GPU (bon dans ce cas par contre le temps de réponse est quand même bien plus long… mais ce n’est pas toujours une priorité pour l’utilisateur d’avoir un temps de réponse de quelques secondes plutôt que de quelques minutes !).