Commentaires : NVIDIA Chat with RTX : nous avons testé l'intelligence artificielle locale assistée une GeForce

Un clone de ChatGPT qui exploite la puissance des GeForce pour traiter les données en local sur votre ordinateur ? Telle est l’idée de NVIDIA.

C’est très intéressant mais je ne suis pas sûr que cela puisse fonctionner. En tournant en local, l’ia ne peut pas exploiter les conversations pour apprendre. C’est très bien pour la vie privée mais ralentira le développement. Combien de temps les utilisateurs seraient prêt à utiliser une ia qui décroche de la course?

Heureusement pour Nvidia, c’est un démonstrateur pour vendre leur matériel, c’est de là que vient leur impressionnante croissance.

L’IA chez Clubic….

Ce que propose Nvidia n’est qu’un logiciel qui encapsule des LLM (Large language Model), des AI conversationnelle, comme le montre les captures d’écran, 2 en l’occurence :
Llama 2 crée par Meta (Facebook, instagram…)
Mistal 7B crée par Mistral (une entreprise française)

Mistral c’est la fameuse startup dans laquelle l’ex-secrétaire d’État au numérique Cédric O a pu obtenir xxx actions pour des cacahuètes et qui soulève plus que des questions, déjà évoqué dans l’un de vos articles :

Les résultats décevant obtenu ne sont donc pas surprenants et logiques, ces 2 modèles d’AI étant inférieur à ChatGPT 3.5

À noter que Mistral propose désormais Mistal 8x7B supposé être équivalente voir supérieur à ChatGPT 3.5

Enfin, il était déjà possible d’utiliser des AI conversationnelle en local, y compris la plus puissante ChatGPT mais évidement, il vaut mieux avoir une machine puissante…

Ce que propose Nvidia avec CHAT RTX est donc totalement cohérent à leur offre Hardware, mais c’est peut-être un « début » de réponse à OPEN AI qui veut développer ses propres semi-conducteurs pour l’AI….

1 « J'aime »

À voir dans quelques mois/années. Si ça permet d’égaler GPT 4 avec des données moins complètes, mais une capacité d’analyse similaire, ça m’intéresse. En ce moment, j’utilise pas mal ChatGPT 4, et la lenteur des réponses, sans compter les erreurs réseau qui ne sont pas négligeables , m’exaspèrent un peu… Surtout que je le trouve un peu plus bête qu’il y a quelques mois (voir la vidéo de Micode à ce sujet).

ça peut être intéressant au niveau d’une entreprise ou surtout d’un groupe industriel (samsung, bank of america, …) qui pourra farfouiller sur les données collectées au sein du groupe :

  • ordinateur, sors-moi une étude sur les utilisations les plus fréquentes en photographie depuis 30 ans sur nos smartphones d’entrée de gamme
  • ordinateur, cacule moi l’évolution des risques liés à nos actifs financiers sur le domaine de l’agriculture sur la région du kansas
  • ordinateur, sur la base des rapports de nos espions sur le continent européen, et par rapport à notre capacité de défense intercontinentale, quelle est le moment le plus favorable pour déclencher une guerre thermonucléaire avec la russie depuis nos bases en ukraine ?

On dirait dr.sbaitso fournis avec les sound blaster en 1992, sauf qu’il bouffe 500 000 fois plus de mémoire et raconte toujours n’importe quoi xD c’est du résumé à l’arrache avec que des infos bidons ou pompés ça et là. Ca a l’air cohérent mais la plupart du temps à côté de la plaque. Aller on va mettre un petit +1 pour les résumé des sous titres de vidéos foireuses. Mais bon si on peut pas se fier aux infos, on risque juste la désinformation générale et permanente. Encore pire que les bobards de cours de récrée.
Si l’IA est à l’image de l’homme, et bien à l’heure actuelle, ça risque bel et bien d’être une calamité totale.

Quand les chats bots de microsoft prétendent être des vrais être humains et qu’ils peuvent le prouver car « une IA ne peut pas envoyer de mail » et qu’il « faut contacter l’onduleur pour récupérer son paquet » on a envie d’exploser de rire, si on avait pas attendu 3 heures dans un chat pour lire ça…

Si on est arrivé au stade ou ne sais plus ranger ses documents, ça va devenir compliqué d’utiliser un chat bot. Au pire si on a un gros trou de mémoire avec l’indexation depuis vista, suffit de taper le nom dans le menu démarrer, ou éventuellement consulter l’historique…

Au lieu de tous râler, essayez le, c’est gratuit et facile à installer !
Je trouve que le résultat est pas mal du tout. Le seul souci est qu’il répond en anglais alors que les textes injectés sont en français. Il y a donc une phase de traduction.

Est-ce que quelqu’un saurait le faire répondre en français ?

Ça a un vrai intérêt d’avoir des modèles qui tournent en local. En entreprise on a généralement interdiction de partager des données/documents avec ChatGPT ou autres

J’ai pris pour tester un abonnement chat gpt 4 . Franchement c’est nul. Deja on est limité à 40 message sur chat gpt 4 et dallee inclus toute les 3 heures. Après ya aussi une limite de 4090 caractères qui incluent les espaces pour le message. Pareil pour les fichiers envoyés à chat gpt. Résumé chat gpt 4 ne le fait il prend juste les premiers textes du document. Il est lent généré des images et répondre au message gemini est plus rapide. Dall-e 3 est bien mais on peux pas gérer ce qu’on veux, avec stable diffusion on peux.
On est limité de partout. Ce plus chiant c’est la limite des messages on paye un abonnement pour être limité imagine la même pour Netflix.
Je vais arrêter mon abonnement chat gpt 4 et utiliser chat gpt 3 , gemini et claud 2 qui sont gratuit et en ligne et j’utiliserais es modèles qui tournent en local après avoir trouvé des bon modèles.