Commentaires : Anthropic interdit les abonnements Claude sur les outils tiers : OpenClaw en première ligne

Depuis le 4 avril 2026 à 21h, les abonnements Claude Pro et Max ne couvrent plus l’usage via des outils tiers comme OpenClaw. Anthropic resserre son écosystème et impose une tarification séparée aux power users.

https://clubic.com//actualite-607720-anthropic-exclut-les-outils-tiers-comme-openclaw-de-ses-abonnements-claude.html

La rationalisation des couts commence, pour rester poli.

Hier, c’est Open AI qui tuait Sora et son futur Chatbot érotique, aujourd’hui c’est Anthropic qui cautérise l’hémorragie que doivent constituer ces applications tierces. Les utilisateurs vont commencer à mesurer le vrai cout de l’utilisation de l’IA, en sachant que ce n’est que le début et que de futures augmentations sont inévitables.

Effectivement, pas mal de gens vont devoir se poser les bonnes questions, dont les réponses seront certainement de chercher un équivalent chez la concurrence, jusqu’à ce que la concurrence en question fasse de même.

1 « J'aime »

De toute façon, de mon côté la réponse est sans appel. Entre les problèmes de souveraineté numérique (Mistral AI inclus, RGPD ou pas) et le coût des API, la seule solution pour faire traiter des données sensibles de toute une vie passera par les agents en local. Vous vous voyez vraiment payer pour faire transiter toute votre vie — documents, mails, finances — sur des serveurs externes ? Et le local n’est plus réservé aux geeks : un NUC AMD AI 395 ou un Mac Mini M4 avec 64 Go de RAM, ça se branche et ça tourne.

Entre 2000e et 3000e les machines avec 64 gb de ram. Même les enchères sont à des prix délirant. Avant de rentabiliser un invest comme ça… Les models Cloud auront tellement évolué qu’on peut se demander si le matériel local sera pas obsolète ?

2 « J'aime »

Ce qui est dingue c’est qu’il y a encore 3 semaines, on pouvait acheter un NUC AMD AI Max 395 de 256 Go de RAM à 3000 euros.

Il est clair que la crise de la RAM n’est pas terminée et que ces machines se vendent comme des petits pains.

En tout cas je te rejoins — ce n’est absolument pas le moment d’acheter une machine comme ça pour faire de l’IA en 2026. Hors crise, une configuration pareille coûterait dans les 1000-1500 euros. Pour le moment il faut ronger son frein.

Cela dit, le local est déjà aujourd’hui très pertinent si on a la RAM. Un Qwen 3.5 122B-A10B en orchestrateur + un 35B-A3B en worker, c’est un agent sérieux — l’équivalent en puissance d’un GPT-4 de 2023, un modèle qui faisait rêver tout le monde il y a 3 ans. Ces modèles ne sont pas obsolètes, ils font un travail excellent sur les tâches du quotidien.

L’IA en local, c’est ne plus payer de loyer (API payante au token). Même à 2000€, si tu fais traiter des milliers de documents par mois à ton agent, la machine est rentabilisée en moins d’un an par rapport aux factures de tokens d’Anthropic ou d’OpenAI. (Mon openclaw de test me coutait 8 dollars par jours pour faire 1/4 de ce que j’avais prévu de faire. J’ai donc arrêté les frais pour le moment)

Et l’argument de l’obsolescence ne tient pas vraiment. Oui, les modèles cloud flagship seront toujours en avance — c’est leur raison d’être. Mais un 122B local dans 3 ans, avec les avancées en quantification comme TurboQuant de Google (qui réduit drastiquement la taille des modèles sans perte significative de qualité) ou les formats GGUF nouvelle génération, ce même niveau de performance pourrait tenir dans 64 Go de RAM — soit des machines à 600 euros.

La souveraineté numérique locale, c’est -à mon avis- l’avenir. Mais pas au prix fort de 2026.

PS

Un modèle cloud sera effectivement toujours plus performant — et c’est normal. Les fournisseurs disposent de clusters unifiés, de GPU NVIDIA haut de gamme, de pipelines optimisés et d’une puissance brute qu’aucune machine personnelle ne pourra égaler. Leur rôle, c’est de pousser la frontière du possible.

Mais ce point est largement hors‑sujet pour 99 % des usages réels. En tant que particulier, professionnel, analyste, développeur ou même moyenne entreprise, tu n’as pas besoin d’un modèle qui bat des benchmarks de recherche.

Oui il faut relativiser, un qwen3.5 9b GGUF est au niveau du modèle GPT 120b, mais même avec en local c n’est pas bon en correction orthographique, pour ça il me faut un modèle spécialisé, c est un modèle sympas pour faire des mail, rédiger des chose faire des micros programme se débloquer sur des soft.

Mais c est deja loin d un gemini 3 flash qui sait corriger l orthographe, et en code le gemini pro ou Claude sont loinnnn devant des modèles en local. Même gemini 3 flash est meilleur et pourtant pas fou pas mal d’ erreur pour faire des soft

Mais normal que Claude bride , les truc openclaw ça envoie une quantité importante norme de prompt etc bien plus qu un humain qui ça utiliser Claude code.
Donc soit la boîte en a un vrai besoin et ça payer un service pour ça a Claude, ou alors non .

Je suis d’accord avec toi. Par contre dans mon commentaire je ne conseille pas d’utiliser un 9B qui effectivement n’est pas utilisable pour de l’orchestration OpenClaw — peut-être certains modèles spécialisés pour du texte pur, côté Mistral peut-être.

Pour être sérieux il faut faire tourner du 122B (A10B) en orchestrateur et un 35B (A3B) en worker. Le A10B et A3B désignent les paramètres actifs lors de l’inférence — le modèle est énorme sur le papier mais n’active qu’une fraction de ses paramètres à chaque token, ce qui le rend beaucoup plus rapide et moins gourmand en RAM qu’un modèle dense équivalent. Grâce à cette combinaison on peut largement augmenter le contexte et avoir un agent qui orchestre réellement ses sous-agents sans halluciner les confirmations.

Ayant essayé de faire tourner OpenClaw en local sur 8 Go de VRAM, j’ai testé de petits modèles et franchement rien n’est convaincant. Gemini Flash Lite n’est pas trop mal pour répondre à des questions simples mais reste un très mauvais orchestrateur — il confirme des actions sans les exécuter, hallucine des états système, et ne délègue pas vraiment aux sous-agents. Tester OpenClaw avec Claude Sonnet, c’est un autre univers — orchestration réelle, zéro théâtre. Mais à 8 USD par jours d’usage « faible », c’est effectivement trop cher pour un usage quotidien en production.

J ai pas encore fait d orchestateur, j utilise surtout pour faire des petits programmes des macros,… Ça fait gagner beaucoup de temps,aide sur des bugs informatique parfois ça aide et ça plus vite que fouiller les forums. Et bien sûr rédaction de mail ou des doc pour de l administratif,…, pour ça le 9b est pas mauvais.
Sinon génération d image avec z image sur ma rtx 4060. Les npu c est top pour des mini ia, petite retouche image, reduction bruit micro,… Ça consomme peu, mais c est lent face a un gpu.
Enfin bon que Claude limite ça ’ arien d étonnant

Les échanges sur ce topic sont intéressants, même si beaucoup de termes techniques me passent au-dessus.

Ce que je constate, c’est que tout le monde ou presque cherche à ne PAS dépendre d’un des principaux fournisseurs d’IA, tant pour des raisons de cout que de confidentialité, ce que je comprends totalement. Mais si cela est représentatif de tous les utilisateurs réguliers d’IA, alors les fournisseurs d’IA ont du souci à se faire, car leur rêve de vendre de l’IA par camions à tout le monde va se heurter au souhait fort légitime de la majorité des gens de rester maîtres de leurs données et de leur budget.

« L’inconvénient » de l’innovation, c’est qu’elle fini par devenir accessible à tout un chacun. Je gage qu’il ne faudra pas longtemps avant qu’on voit apparaitre une IA à but non lucratif, façon Firefox, dont 99% des gens se satisferont. Et les 1% restants utiliseront des systèmes locaux, comme ceux décrits plus haut.

C’est exactement ça, Pécore. Mais pour moi, il y a deux réalités qui vont s’imposer :

D’un côté, la souveraineté, ce n’est pas juste un délire de passionné, c’est une question de survie pro. Quand tu commences à avoir un agent qui gère tes mails, tes comptes ou tes dossiers clients, tu ne peux tout simplement pas tout envoyer chez un géant du Cloud, RGPD ou pas. C’est trop risqué. Pour un avocat ou une petite boîte, le local sera vite le seul moyen de bosser sérieusement sans donner les clés de la maison à une entreprise externe. Par extension le cas se présente aussi pour un particulier.

D’un autre côté, le cloud ne va pas disparaître — il va simplement changer de rôle. Il restera indispensable pour des tâches ponctuelles ou vraiment lourdes… y compris pour t’aider à configurer ton IA locale. C’est d’ailleurs le paradoxe : j’utilise régulièrement les gros modèles cloud pour m’aider à coder ou optimiser mon propre serveur chez moi.

En gros, on aura le Cloud pour ce qui est public ou trop complexe, et le local pour tout ce qui est privé et sensible. Les deux vont cohabiter, mais pas pour les mêmes raisons.

1 « J'aime »

Merci pour le retour, je pense que tu as raison, les deux vont cohabiter pendant un moment.

Néanmoins, je vois la tendance, chez les professionnels, aller vers toujours plus de local et toujours moins de Cloud, pour raisons financières, de souveraineté, ou tout simplement pour les mêmes raisons qui font que certaines préfèrent acheter que louer.

Est-ce aussi ton avis ?

C’est tout à fait ça. Aujourd’hui, il devient impossible de justifier l’envoi de données ultra-sensibles vers des entreprises soumises au Patriot Act ou au Cloud Act. On ne parle pas juste d’un projet marketing, mais de dossiers qui touchent à l’intime ou au secret industriel.

Même une solution comme Mistral AI, bien que française et excellente, pose question à certains pros dès qu’il s’agit de passer par leur API cloud. Parce que la moindre faille ou le moindre changement de conditions d’utilisation peut devenir un cauchemar juridique.

Prends l’exemple d’un avocat : il doit rendre des comptes à son bâtonnier et aux greffes. S’il utilise un agent IA sur le Cloud et qu’une fuite de données survient, ou si ses documents sont ‹ aspirés › pour de l’entraînement, c’est la radiation pure et simple. Pour lui, l’IA est un outil génial (pour du RAG sur 500 pièces de procédure, par exemple), mais le risque du Cloud est trop lourd.

Le local c’est la seule façon pour ces métiers (avocats, médecins, notaires, chefs d’entreprise) de profiter de l’IA sans jouer leur carrière à pile ou face. En gros, si tu n’es pas maître de ton serveur, tu n’es pas maître de ton secret professionnel.

1 « J'aime »