OpenAI, l’éditeur de ChatGPT, continue son ascension avec le recrutement de centaines de programmeurs.
Je me demande ce qui va se passer quand ChatGPT sera capable d’éditer son code lui même pour s’améliorer tout seul, puis passer commande lui même pour des composants lui servant à augmenter ses capacités et enfin contrôler des robots pour se passer de bras humains…
Bon il en est encore loin ! Je l’ai questionné sur une question de codage pointu pour du traitement optique. Il a répondu complètement à coté de la plaque en citant des publications scientifiques toutes inventées de toute pièce.
La fin de la conversation pour illustrer :
Cela n’arrivera jamais. Une IA répond bêtement ce qu’on a encodé. Ce n’est pas de l’intelligence artificielle pour moi. Il detecte des mots précis et répond avec ce qu’un humain a codé.
On en reparlera dans 10 ans
La finalité c’est de payer dans la réalité et dans le virtuel, quelle idée brillante de ces escrocs qui on flairer que le niveau intellectuel de la masse et en chute libre !! n’encourageons pas ces initiatives douteuses !!
Essaye chatGpt, bêtement n’est pas le terme approprié. Les résultats ne sont pas toujours exacts mais l’analyse de la question est impressionnante
Tu peux expliquer ce que tu veux dire? Quelle Initiative douteuse? Payer quoi?
Le rapport de ta remarque avec l’IA?
Ça me rappelle les usines qui fermaient en France dans les années 90, les boîtes envoyaient les mecs qui venaient de se faire virer en Pologne pour former ceux qui allaient les remplacer…
Triste
Dans les années 2010, de nombreuses compagnies se sont lancées dans le domaine de « l’IA » soutenus par de nombreux fonds financiers (public et privé), un vrai Far-West, avec bien des compagnies bien peu sérieuses.
Jusqu’en 2018, c’était vraiment le n’importe quoi. Beaucoup de « super licornes » qui n’avaient rien de bien sérieux. Mais à partir de 2020, les compagnies les plus sérieuses ont commencé à montrer des avancées notables.
GPT-3 - comme son nom l’indique - est un modèle qui a un apprentissage supervisé (par l’humain) et un apprentissage autonome par renforcement (il « apprend » par lui-même à travers les interactions qu’il reçoit). Il n’est pas le premier, et ne sera pas le dernier. AlphaGo Zero par exemple a appliqué le même principe: données fournies par l’humain, base de données « inhumaine », et auto-apprentissage. Au départ, il perd facilement, et progressivement, devient imbattable pour n’importe quel humain. Et par la suite, il s’entraîne contre lui-même.
Ces systèmes ne « raisonnent pas » et ce ne sont pas leurs objectifs : ils font ce en quoi ils ont été conçus, en suivant des règles établies par des humains. Les défauts de ces « IA » sont celles de l’esprit humain, basés sur des critères arbitraires reflétant nos sociétés et nos cultures. Si « mauvaise décision » proposée (ou prise), ce ne sera pas vraiment de la faute d’une IA (qui n’a pas d’esprit). Par contre, à un niveau juridique, cela va ouvrir bien de futurs problématiques (la responsabilité). Cela va dépendre de si ces services sont des « aides au travail et à la prise de décision » (un outil), ou un système autonome s’occupant d’un domaine en particulier (par exemple : une ferme agricole mécanisée, où l’IA prend la décision de quoi faire pour rendre le rendement le plus efficace possible selon les conditions météos et les ressources dont elle dispose).
J’ai des connaissances qui travaillent dans le domaine aéronautique dont les clients sont des compagnies aériennes et des constructeurs. Au départ, le projet était d’offrir une aide aux pilotes. Après 4 ans d’essais et prototypages, le projet évolue pour remplacer le pilote durant les phases de décollage et d’atterrissage. Dans quelques années, cela ne m’étonnera pas qu’on nous propose un avion totalement autonome pour le fret aérien, avec un pilote pour agir en cas de secours.
Dans 10 ans, que ce soit GPT ou un autre, il est tout à fait raisonnable de penser qu’un autre système d’IA sera encore plus évolué. Je ne crois pas que nous serons au niveau de la complexité cérébrale d’un humain, mais dans des sous-domaines spécifiques, ils seront bien plus performants que nous.
Je ne me fais pas d’illusion non plus, avant ma retraite, mon métier aura été transformé ou aura disparu. Et… je ne le redoute pas vraiment. Cela va de soi qu’on me remplacera par quelque chose de plus efficient.
devenir inutile sera notre destiné à tous en somme, c’est ça votre avenir ?
Il a encore des progrès à faire, il est incapable de pondre un simple script correct : il invente des commandes et/ou des paramètres dans des commandes existantes.
Lorsqu’on lui fait remarquer qu’il se trompe, il s’excuse essaie de corriger mais ce qui l’écrit est souvent encore pire.
Le code est souvent mal optimisé et parfois il plante même avant d’avoir fini d’écrire un script de 20 lignes.
ChatGPT ne va pas mettre les Dev au chômage demain.
Il ne va pas mettre au chômage les dev, par contre, j’ai personnellement pu utiliser plein de trucs pondus par GPT.
L’idée n’est pas de lui demander des scripts complets, mais des fonctions. Avec un peu d’entrainenement et de compréhension de ses capacités prédictives (de langage prédictif, j’entends), il est réellement capable de produire du code fonctionnel, et même de le refactor pour qu’il soit plus propre.
J’ai pu tester pas mal de technos, même des technos de niche, ou des librairies nodejs pas très utilisées, et ça fonctionne sincèrement pas mal du tout.
Y’a plus qu’à faire la tambouille par dessus. L’idée n’est pas de nous remplacer, mais d’accélérer certains processus répétitifs. Après 20 ans de métier, des scripts de pagination, j’en ai écrit des tonnes, et ça me fait toujours autant chier de les rédiger. Demander à GPT de tout faire en nommant tes variables après avoir simplement fait du pseudo code c’est une évolution sympa (dont je me lasserai certainement).
« IA » est un terme galvaudé. Toutes les « IA » sont des systèmes experts et il n’y a aucune intelligence réelle. ChatGPT n’a aucune réflexion derrière ses propos. C’est juste un système conversationnel alimenté par une base de données de connaissances.
Et dans 5 ans ça sera un plan de licenciement massif.
Ça m’épate toujours ces entreprises qui recrutent à tour de bras du jour au lendemain sans que ce soit hyper justifié.
pour ca qu’ils préfèrent prendre des prestas…
L’utilisation systématique des IA va encore plus pousser l’humanité vers la crétinisation déjà bien engagée avec la TV, les RS, etc…
C’est un terme qui est devenu un abus de langage.
Au départ, je me souviens bien quand je programmais des réseaux de neurones, qu’on évitait d’utiliser ce terme et qu’on appelait bien ça un système expert.
Ce sont surtout les média qui ont mis ce terme à toutes les sauces.
L’utilisation de ‹ IA › pour qualifier un système expert n’est pas incorrect.
Vous vouliez plutôt dire l’inverse je pense non ?
Donc ok ChatGPT est une IA dans ce cas, pas de soucis. Je pensais (maisj’ai quand même l’impression) que son traitement des réponses est du domaine du système expert, même si elle peut générer des phrases dans tous les champs de connaissance.
On ne doit pas fréquenter les mêmes « niches », impossible de lui faire cracher ne serait-ce que 2 lignes de code en RPGLE ou même en Free RPG sans faute.
Même en CL, il y a souvent une faute de syntaxe dès la 1ère ligne, alors que bien entendu il affirme connaitre ces langages.
Finalement, je finis par lui apprendre à corriger ses propres erreurs (mais parfois il reproduit les mêmes erreurs le lendemain), en fait c’est ça le génie de ChatGPT : ce sont ses utilisateurs qui lui apprennent à répondre aux questions.