Le géant de la tech a récemment présenté ses premiers outils d’intelligence artificielle, qui arriveront avec iOS 18. Et pour éviter la mauvaise publicité, Apple explique aujourd’hui pourquoi il a décidé de restreindre l’accès de ces outils à ses tout derniers appareils.
L’argument totalement impossible à vérifier, certains modèles tournent très bien sur du petit matériel. Mais bon c’est un puissant argument marketing pour pousser à prendre le dernier modèle… comme c’est surprenant…
La communication officielle de la marque parle du Private Cloud Compute comme prenant le relais de l’iPhone quand la requête ne peut être traitée en local. Ne pas faire profiter les iPhones plus ancien est donc tout à fait une volonté de la pomme de pousser le renouvellement, et pas du tout un probleme de puissance de l’appareil puisqu’elle peut tout à fait être déportée.
Arguments fallacieux. Une façon de pousser les consommateurs à acheter les appareils les plus puissants et les plus onéreux histoire de faire plaisir aux actionnaires. Enfin bref du Apple…
Au pire
*ils laissaient un lag apparaitre sur les modèles plus anciens, et ça incitait à changer (ou pas)
*Si inexistant, ils l’ajoutaient artificiellement (comme les ralentissements des modèles anciens il y a qq années, jusqu’à se qu’ils se fassent prendre…)
*(je leur ajoute une solution marketing sympa à tester : expérience client équivalente si abonnement payant à un service d’IA cloud pour accélérer les résultats pour les iphones d’ancienne génération… ça avait de la gueule…)
Là solution encore plus facile : « pas possible, qualité de l’expérience utilisateur… etc… »
bref… arguments marketing classiques, poncés et décryptés par tous…
(pardon…et tout(e)(l)(g)(b)(t)(q)(x)(y)(+)(#)(¤))
Quels sont ces « certains models » qui fonctionnent « tres bien »?
Les modeles les plus courant demandent une carte graphique de dernière generation avec 16/32Go de VRAM, 16/32Go de RAM, des SSDs et des CPUs haut de gamme.
Dans le detail:
GPT-4 (OpenAI):
Technical Requirements:
High-end GPU with at least 16GB VRAM (for smaller versions)
Significant RAM (32GB or more)
Powerful CPU (e.g., AMD Ryzen 9 or Intel Core i9)
Storage: NVMe SSD for fast data access
GPT-Neo and GPT-J (EleutherAI):
Technical Requirements:
GPU with 12-24GB VRAM (depending on model size)
RAM: 16GB or more
CPU: Multi-core (e.g., AMD Ryzen 7 or Intel Core i7)
Storage: SSD for better performance
LLaMA (Meta):
Technical Requirements:
GPU with at least 10-16GB VRAM
RAM: 32GB or more recommended
CPU: High-performance (e.g., AMD Ryzen 9 or Intel Core i9)
Storage: SSD
BERT (Google):
Technical Requirements:
GPU with at least 8GB VRAM
RAM: 16GB or more
CPU: Decent multi-core (e.g., AMD Ryzen 5 or Intel Core i5)
Storage: SSD for fast access
ALBERT (Google):
Technical Requirements:
GPU with at least 8GB VRAM
RAM: 16GB or more
CPU: Multi-core (e.g., AMD Ryzen 5 or Intel Core i5)
Storage: SSD
T5 (Google):
Technical Requirements:
GPU with at least 16GB VRAM
RAM: 32GB or more recommended
CPU: High-performance multi-core (e.g., AMD Ryzen 9 or Intel Core i9)
Storage: SSD
RoBERTa (Facebook):
Technical Requirements:
GPU with at least 8-12GB VRAM
RAM: 16GB or more
CPU: Multi-core (e.g., AMD Ryzen 7 or Intel Core i7)
Storage: SSD
DistilBERT (Hugging Face):
Technical Requirements:
GPU with at least 6-8GB VRAM
RAM: 8-16GB
CPU: Decent multi-core (e.g., AMD Ryzen 5 or Intel Core i5)
Storage: SSD
Je te renvoie vers un article de Clubic qui explique que ça arrive justement :
https://www.clubic.com/actualite-524904-microsoft-presente-un-modele-d-ia-plus-petit-et-plus-econome-pour-stopper-la-demesure-on-vous-presente-phi-3.html
En dehors de Microsoft il y a des tas de modèles sur des sites connus (type Huggingface) qui ciblent des petites architectures. On est loin de GPT4 qui fait dans la démesure et bien sûr ce n’est pas du tout pour le même usage et les mêmes résultats.
Il s’agit là essentiellement de LLM très génériques ou de génération d’image.
Il y a des modèles pour d’autres usages qui nécessitent beaucoup moins de ressources, par exemple pour de la reconnaissance d’objets, de la retouche d’images, ou encore des modèles génératifs très spécialisés (par exemple Jetbrains en a un pour la génération de code qui demande juste un CPU avec AVX2 et quelques centaines de Mo de RAM.
Et même du côté des LLM, il y a moyen de faire des trucs qui tournent sur un smartphone, simplement faut pas en attendre un truc qui sera capable de remplacer une recherche sur Internet. Mais pour par exemple de l’aide à la rédaction ou de la traduction, un « petit » modèle pour tout a fait faire le job.
Et tout ca pour que Siri te donne les horaires de cinema, recuperer une recette plus rapidement ou generer des images de memes bidons…
Ah, quand meme, la bonne nouvelle c’est qu’on est pas oblige de s’en servir ou d’upgrader son telephone.
Finalement les gens qui ralent se font du mal tout seul. Il faudrait qu’ils se detendent.
Tu oublies la fonction flagship principale: le générateur d’ emojis!
Uniquement disponible sur des iPhones à 1200 boules +
Je ne te dis pas comme ça va frimer dans les cours de récré…