Commentaires : Deepseek R2 : lancement retardé pour la nouvelle IA. La faute à Huawei?

Le géant chinois de l’IA DeepSeek n’a pas encore sorti son nouveau modèle de langage R2. Et ce serait à cause de Huawei.

https://clubic.com//actualite-575982-deepseek-r2-lancement-retarde-pour-la-nouvelle-ia-la-faute-a-huawei.html

quand on voit la qualité de leur premier modèle R1, R2 est un sérieux concurrent !

Je l’utilise depuis qu’elle existe et souvent je pose la même question à plusieurs IA, et bien Claude et DeepSeek sont ceux qui me donnent les meilleures réponses, après y a Grok ensuite ChatGPT, quoi que avec GPT-5 c’est un peu mieux que Grok 4 mais parfois Grok 3 mini fait mieux que GPT-5.

Pour ceux qui s’en foutent de la programmation et autres, DeepSeek est un bon choix en plus totalement gratuit et sans limites !

Je dirai que c’est plutôt la faute à Trump :stuck_out_tongue:

2 « J'aime »

Rien sur DeepSeek V3.1 sur Clubic ?
« Sans conférence de presse ni annonce officielle, DeepSeek V3.1 a immédiatement impressionné les chercheurs grâce à un score de 71,6 % sur le benchmark Aider, devançant même Claude Opus 4 tout en étant 68x moins cher. »

1 « J'aime »

Quelle vie trépidante … ou pas :roll_eyes:

C’est ma vie j’en fais ce que je veux :stuck_out_tongue: … et je suis désolé que tu t’es senti concerné par le commentaire qui te regardait ni de près ni de loin car toi tu testes pas les IA tu préfères les critiquer et moi vois-tu je préfère tester par moi-même et voir si ça m’arrange ou pas c’est pas aux autres qui me disent ce qui est bon ou mauvais.

c’est bien ce que je dis, quelle vie trépidante … ou pas !

https://www.blog-nouvelles-technologies.fr/337749/deepseek-v3-1-open-source-vs-gpt5/

Les chercheurs sont impressionnés. Huuumm. Ça te fait pas un peu penser à du Coluche ? Dans les milieux autorisés on s’autorise à penser.

Tiens c’est marrant sur le d’Aider pas de trace du bench de V3.1.

Comme je ne peux pas croire qu’on répète des trucs juste parce que lu sur un blog ce serait chouette d’avoir le bench en question.

Plus sérieusement (si c’est possible) ils n’ont pas sortit les modèles de base apparement et j’attend les bench HLE et WebCode avant de me prononcer.

Ah aussi t’as remarqué que le score de R1 sur Aider c’est 71,4%. Les « chercheurs » sont vraiment impressionnées par le 71,6%. Je veux dire 0.2 pts de pourcentage c’est pas non plus fifou. C’est sans doute plus la vitesse pour le même score qui est à noter (enfin c’est ce que j’ai lu, j’ai pas trouvé le bench).

https://x.com/poezhao0605/status/1957969715030290532?s=46&t=xYRV0tDjU_uzIVtM07G0pg

Ça résume assez bien le truc. Un pas en avant rien de révolutionnaire ou épatant. Avec le coût qui est toujours incroyable et qui permet d’envisager des intégrations plus facilement. Mais au prix d’hallucinations toujours problématiques.