Commentaires : Le fonctionnement de ChatGPT coûte, chaque jour, une petite fortune

bonjour, il y a peut etre moins cher : Asus IA Accelerator : https://www.amazon.com/Accelerator-Based-Google-Inference-CRL-G18U-P3DF/dp/B08TZRX2WP

et utiliser internet pour alleger les longues heures d’attente aupres de ses banques etc.

Personne pour dire que ChatGPT est inaccessible depuis les premiers jours, sauf si on se connecte la nuit ?

« Même si la dernière version du modèle de langage d’OpenAI est pour le moment réservée aux abonnés payants, peu nombreux »
Vous avez des chiffres ? Parce qu’en payant, GPT-4 est maintenant limité à 25 requêtes / 3h (ce qui est d’ailleurs inacceptable pour un service payant). Et franchement, vu la qualité du 4 par rapport au 3.5, difficile de revenir en arrière.

Son coût de fonctionnement serait donc couvert par un abonnement de $1.28 par an par utilisateur. Une fortune en effet🙃

En quoi le fait d’avoir des limitations est inacceptable pour un service payant ? L’écrasante majorité des services payants ont des limitations, et c’est normal, voir inévitable, parce que sinon t’auras toujours des petits malins qui en profiteront pour abuser (par exemple, là s’il n’y avait pas de limite sur le nombre de requêtes, il y aurait déjà des petits malins qui auraient fait des sites payants branchés à l’API payante…).

2 « J'aime »

Et puis, tout dépend de l’usage que l’on en fait, mais si c’est pour demander des choses futiles ou pour tester, autant rester sur le site d’OpenAI au lieu de souscrire à un abonnement payant pour une application de bureau GPT-4.

Il y a un mec qui a fait ça pour la nouvelle appli macOS GPT-4 : dans ses commentaires, il a insisté pour dire de ne jamais commettre cette erreur. :smiley:

Ici :
« L’utilisation d’IA se situe quelque part entre les deux et sera évaluée dans le futur »

c’est 25requetes / 3 heures qui est inacceptable. Surtout pour du code.
Il sort souvent des résultat et s’arrête en plein milieux, etc… Les 25req c’est vraiment trop peu, même pour un usage light dans ce cas.

Et donc, en quoi est-ce que je critique ? je dis simplement que le rapport bénéfice/coût de ces moteurs reste à évaluer.

La Rançon de la gloire

Non tu ne parles pas du moteur mais l’utilisation de l’IA hors l’IA et ChatGPT en réalité c’est pas la même chose, des IA aujourd’hui il y en a plein utilisées partout pour plein de tâches différentes c’est ce que beaucoup de personnes ne comprennent pas, ChatGPT c’est pas une IA, c’est un programme (ou moteur si on veut) qui utilisent plusieurs IA qui servent à par exemple reconnaître langage, puis reconnaître le sens et etc. Seulement il y a un abus de langage de la part des médias qui parlent tous de ChatGPT qui est une IA et tout le monde critique ça. Ça ne fait que renforcer dans l’esprit des gens ChatGPT = IA = Skynet.

Quant à l’intérêt des IA il y en a plein des usages il en est fait depuis des années dans bien des domaines, par exemple la SNCF l’utilise pour faire de la reconnaissance sur les lignes de chemin de fer, la démonstration que j’avais vu était très intéressante, on chargeait une caméra sur un drone avec un programme dont le but était de recenser les isolateurs cassés sur les caténaires, dans ce programme il y avait 2 IA, une entraînée à reconnaître qu’est-ce qu’un isolateur, l’autre reprenait l’image et était entraînée à reconnaître les isolateurs cassé ou non cassé. Grâce à ça ils pouvaient beaucoup plus facilement et en gagnant un temps énorme sur l’entretiens des caténaires ils n’ont plus qu’à intervenir sur les isolateurs abîmés et non sur chacun pour vérifier au cas où.
L’exemple en question date d’il y a déjà plusieurs années faut juste arrêter de mélanger ChatGPT et IA même si l’un utilise l’autre. Que tu te demandes l’intérêt de ChatGPT ok mais l’intérêt de l’IA là perso j’ai aucun doute

1 « J'aime »

Etape suivante: les « écolos » vont s’offusquer de l’énergie que ça consomme. Ah ben, ça y est déjà, j’arrive trop tard.

Les écolos s’offusque de tout, malheureusement pas de leur existence…

2 « J'aime »

Rappel : c’est une preview, pendant la phase de mise au point de GPT-4, c’est pas sensé être utilisé pour du productif. Donc de telles limitations n’ont rien de choquant…

Ça ne l’était pas au début… C’est justement l’excès de demande qu’ils ne peuvent pas gérer. Ce qui me faisait réagir en 1er lieu à la phrase de l’article que je citais.

Ça a bien toujours été une preview. Certes, avec moins de restrictions d’utilisation. Mais une preview quand même. Donc un truc en test, sans garantie, pas fait pour un usage en production.

Plusieurs messages ont été supprimés, les disputes puériles justes dignes d’enfants de 10 ans n’ont aucun intérêt dans le sujet. jap

5. Restez courtois

Particulièrement lorsque vous exprimez votre désaccord, critiquez les idées, pas les personnes. Évitez à tout prix les insultes, les attaques et autres jugements sur la forme des messages.

6. Publiez des messages utiles

Chaque participation a vocation à enrichir la discussion, aussi les partages d’humeurs personnelles ne doivent pas venir gêner le fil des échanges.

Ils pourraient demander à leur IA un plan pour réduire ses coût de fonctionnement, non? C’est bien le moins qu’elle puisse faire.
De plus, concocter la bonne question est une question d’intelligence. Celui qui a dit « il n’y a pas de bête question » cherchait seulement à soulager les canules. Il y a de très bêtes questions, à foison.