Commentaires : Le P.-D.G. d’Apple adore DeepSeek R1, et c’est facile de comprendre pourquoi!

La stratégie d’Apple en matière d’intelligence artificielle vient de recevoir une validation inattendue. Alors que le géant californien mise depuis des années sur une IA locale et économe en ressources, le modèle DeepSeek R1 prouve que cette vision était juste… et rentable.

1 « J'aime »

:+1: Apple.

Pour ceux qui ne le savent pas, Hugging Face vinet de publier OpenR1, une version complètement open-source de DeepseekR1.

https://alternativeto.net/news/2025/1/hugging-face-launches-open-r1-a-fully-open-source-version-of-deepseek-r1-ai-model/

Ah merci ! Déjà ?? C’est pas hier qu’ils annonçaient le projet ?

1 « J'aime »

Il était déjà opensource , il suffisait d appuyer sur le bouton fork sur gitlab,
remplacer toute mention de deepseek par celle que tu veux , compiler et publier ( grosso modo )

Non ce n’était pas open source. Mais open weights comme la plupart du temps d’ailleurs.

2 « J'aime »

Les données d’entrainement de DeepSeek R1 ne sont pas open-source. Ce n’est que L’ IA* proprement dite qui l’est. C’est ce qu’on appelle l’open-weight.

En revanche, la version que vient de publier Hugging Face est complètement open-source.


*IA Je me demande si on devrait plitot parler de programme, non?

1 « J'aime »

Mais je ne vois que l’annonce du projet moi ^^

1 « J'aime »

Je suis assez d’accord avec toi : l’IA sans ses données n’est pas de l’IA mais juste un programme… :wink:

1 « J'aime »

Ce qui est « open » dans les IA open-weight, c’est bien principalement des données.

Mais ce sont les données construites lors de l’apprentissage (ie les poids des x milliards de paramètres du modèle après l’apprentissage), pas les données qui ont servi à l’apprentissage, ni le programme d’apprentissage.

1 « J'aime »

Embarquer un LLM en local sur un smartphone c’est pas une bonne idée. Perso j’ai testé Deepseek 7B et c’est pas meilleur que les autres petits modèles. Il m’a proposé de la limaille de fer pour ma recette de tarte a la fraise. Le 32B fonctionne bien mieux mais demande trop de ram et de GPU pour tourner. Ma RTX4090 donne presque 1s par mot. Impossible de faire tourner ça sur un smartphone.

2 « J'aime »

RTX4090 donne presque 1s par mot.
Info concrète et pertinente :+1::+1: merci .

On va éviter le local je crois bien pendant encore longtemps :sweat_smile::sweat_smile:

1 « J'aime »