Commentaires : ChatGPT gâche le séjour d'un voyageur qui s'est retrouvé bloqué à l'aéroport sans visa, la tuile!

Un Australien s’est retrouvé bloqué à l’aéroport après avoir suivi les conseils erronés de ChatGPT sur les exigences de visa pour le Chili. Il a manqué la conférence à laquelle il était attendu.

Quand je disais dans un autre article que le problème ce n’est pas l’IA mais l’humain qui lui fait trop confiance… CQFD

Je me demande ce que penserait Darwin s’il était parmi nous.

6 « J'aime »

Il rigolerait à gorge déployée, ou facepalm

2 « J'aime »

Sur un Channel YouTube de math que je suis régulièrement, une vidéo a suscité des nombreux commentaires car une étape de la démonstration ne pouvait pas être justifiée, ce ce qui invalidait l’ensemble du raisonnement.
À la suite de toute cette discussion, il y avait un commentaire qui disait « Je ne comprends pas tous ces commentaires négatifs, j’ai demandé à ChatGPT et il a confirmé que le raisonnement était correct. »
Donc, oui, il y en a qui ne savent déjà plus raisonner par eux-même. :man_facepalming:

6 « J'aime »

Tout est histoire de sources fiables et officiels.

Sinon maintenant y’a l’option « Rechercher » sur ChatGPT qui peut notamment donner la source officielle si on lui demande.

Il faut maintenant cliquer sur le bouton : Rechercher sur le web pour que ChatGPT fasse moins d’erreur mais le fera toujours.

Il en est de même pour toutes les IA, au moins actuellement.
Ce sont avant tout des moteurs de générations de texte, basées sur des analyses statistiques afin de déterminer quel mot va après le précédent (c’est plus complexe, bien sûr, mais c’est le principe général).

Il en résulte des phrases généralement justes grammaticalement et qui ont un sens (qui sont compréhensible), MAIS rien ne permet d’assurer la véracité de ce qui est raconté.

6 « J'aime »

S’il lui dit de frapper sur son doigt avec un marteau, il va le faire ?

Il faudrait aussi s’attaquer aux sociétés qui prétendent que leur IA peut être utilisée pour ce genre de chose : c’est de la publicité mensongère.

Elles devraient mieux informer les utilisateurs sur le fonctionnement des IA, pour que ces derniers n’aient pas une confiance aveugle en ces IA.

Et surtout, que les gens réfléchissent un peu plus sur où chercher les informations plutôt que de se tourner systématiquement vers des IA, ou même des moteurs de recherche (la même erreur aurait pu arriver avec une recherche traditionnelle, s’il était tombé en premier sur des pages anciennes datant d’avant la modification de la règle)… Quand tu es invité pour animer une conférence, il y a des gens qui organisent cette conférence. Pour les questions de ce genre, c’est vers ces organisateurs qu’il aurait dû se tourner, pas vers une IA…

2 « J'aime »

Nan je suis souvent d’accord, mais là non…
C’est une IA générative, quand on veut rechercher on fait une recherche dans un moteur de recherche. Pour le coup y a rien a faire la, quand on est c*n (où qu’on veut faire le buzz)… faut pas s’étonner.
C’est écrit en plus, faut pas pousser

image

Mais à mon avis « Mark Pollard, auteur australien spécialisé en stratégie marketing » ça pue le coup de pub quand même.

3 « J'aime »

Tu parles d’un « coup de pub ». Le mec passe pour un teubé qui ne sait pas utiliser les outils digitaux à bon escient. :sweat_smile:

Bon y a rien à voir circulez, c’est encore un abruti qui a cru que « Intelligence Artificielle » veut vraiment dire une vraie intelligence :smiley:

il faut être con pour croire une IA sur ce genre de choses … d’un jour à l’autre un pays peut changer une loi sans que chatGPT ne soi au courant :frowning:

en 2025 là pub se paye au prix fort aux dernières nouvelles … là vous faites de la pub pour le gars gratuitement et indirectement pour ChatGPT :frowning:

ça vaut même pas le coup d’en parler autour d’un café alors franchement faire un article là dessus ??? …

1 « J'aime »

Quand on donne de l’Intelligence Artificielle a des gens qui ont de l’artificielle mais pas d’intelligence, forcément, ça va moins bien marcher.

1 « J'aime »

c’est tout à fait le problème des LLM, en attendant les LCM (large concept models)… si non pour les recherches, je préfère utiliser GPT ou perplexity avec le Deep Search activé …Même s’ils mettent un peu plus de temps pour répondre, je trouve que les réponses sont beaucoup plus fidèles , avec des liens en plus pour vérifier à la fin

Faut voir le côté positif … il peut revendre son cerveau, donc il va maigrir de 1,5kg (environ) et n’aura pas besoin de s’abonner à « Comme j’aime » :face_with_hand_over_mouth:

Question bête : il y a combien de ’R’ dans le mot ”strawberry” ? Il semblerait que ChatGPT ait du mal à répondre à la question.

C’est Bizarre, mais en essayant plusieurs modèles, j’ai trouvé que l’ancien modèle GPT 3.5 Turbo avait ce problème en effet !!!

Preuve en image :

En insistant il m’a même donné « 1 seul R » :o … heureusement que chatGPT 3.5 n’existe plus officiellement il ferait beaucoup de dégâts !!!

Aujourd’hui il n’y a aucune IA qui ne soit pas capable de répondre correctement à cette question en premier prompt … c’est la base !!!

si une IA ne sait pas combien de lettres il y a dans un mot alors qu’elle est censée générer des résultats en se basant uniquement sur ces mots … on est mal barrés quand même !!!

1 « J'aime »

Il se dirait qu’il s’est planté, que l’humanité n’évolue plus mais qu’elle régresse. Il serait sans doute aussi étonné qu’après des siècles de découvertes scientifiques, il y ait encore tant de personnes pour croire au créationnisme. yeux

3 « J'aime »

Haha, effectivement ! Gemini et Perplexity en version de base m’ont aussi répondu « 2 R », en se trompant comme tu l’as dit. Mais dès que j’ai activé le raisonnement approfondi, ils ont toujours répondu juste à ce genre de questions. :smile:

Tu parles de l’archaïque GPT-3.5 Turbo… peut-être que tu n’as pas rallumé une IA depuis des mois ? Les choses avancent désormais à la vitesse de la lumière ! :rocket: Je ne parle même pas des nouveaux modèles comme DeepSeek ou Qwen… Je te conseille d’ailleurs, pour les recherches importantes, d’activer le mode « deep search » n’importe quel AI en a en 2025 : tu verras rarement des hallucinations et en plus, tu auras les liens pour vérifier les sources directement.

Avoir une réponse complètement fausse d’une IA en 2025 signifie juste qu’on ne sait pas encore lui donner le bon prompt ni exploiter correctement ses fonctions selon ce qu’on souhaite en tirer. :wink: … mais la simplicité de prompter pour Mme Michou ça va arriver, déjà je vois des amélioration tous les jours!!! (peut-être parce que on utilise les AI pour se auto améliorer de façon exponentielle?)