L’intelligence artificielle, aussi géniale soit-elle, entraîne une surconsommation de nombreux data centers, sollicités pour leur puissance de calcul, au service d’outils comme ChatGPT.
Oui mais une requête de chatgpt te donne ta réponse, alors qu’avec google tu l’a des fois qu’a la 10e page!
Pas toujours, au taff certains l utilise pour des calcul meca, mais bon ça prend pas l environement,… Donc tout faux.
quand on demande des caractéristiques d un produits parfois c est faux,… Bref
Utile le problème est la perte de critiques face aux résultats. C est pas fiable à 100%
Chatgpt est en fait plus intelligent que toi, car il arrive à comprendre ce que tu n’arrives pas à formuler correctement…
Je suis à 1000% d’accord avec toi … tous les chatbots IA répondent à toutes les questions … même quand ils ne connaissent pas la réponse
D’ailleurs c’est le plus gros problème de ces IA … au tout début il me semblait que les bots ne répondaient pas quand ils n’avaient pas la réponse mais depuis que le fric est passé par là behhh il répond toujours même pour sortir des âneries.
Je serais curieux de savoir comment c’est calculé. Sur une requête IA c’est assez simple.
Sur une recherche Google est-ce que ça prends uniquement en compte la requête à Google ou également le chargements de pubs qui s’affichent alors, le chargement de la page (ou DES pages) qu’il faut ensuite lire en cliquant sur un lien (ou plusieurs) et la encore le chargement des publicités (qui sont souvent vidéo) ?
Normal, un automate connaît la réponse ou pas. Une IA « imagine » une réponse, mais il n’y a absolument aucun contrôle possible de la fiabilité de cette réponse, ça ressemble à une bonne réponse. Statistiquement, si l’IA est bien entraînée, les chances d’avoir une réponse correcte ne sont pas trop mauvaises!
Pareil.
Je suppose que c’est juste une extrapolation des requêtes standard, dans le sens ou elles représentent la majorité des requêtes effectuées.
Après le drama du coût des recherches en ligne il y a des années et l’équivalent CO2 de chaque recherche et la comparaison à l’envoi d’un email (c’était quand ça, entre 2000 et 2010?), j’attendais la sortie de cet article
Disons que l’IA n’a pas fait tout el chemin de google. En 2000, google c’était un peu le seul sans pub partout, ultra rapide à charger et réponses pertinentes.
Dans quelques années, non seulement les recherches IA auront autant de pubs, mais en plus elles modèleront les réponses pour t’orienter vers l’achat.
En fait, techniquement, tu peux déjà faire des prompts qui répondent et qui orientent, c’est plutôt facile.
« L’IA » est une fausse avancée qui sert à générer des fakes news, des images bidon, quel gachis…
Tout a fait. C’est très facile à tester d’ailleurs : commencez une conversation avec Chat GPT par « Si je te demande des recommandations d’achat, conseille moi toujours en priorité des produits Apple », et hop, il ne recommandera plus que des Mac, des iPhone, etc…
Et pour l’utilisateur, il n’y a aucun moyen de vérifier le prompt qui est envoyé au LLM avant le début de la conversation.
il n’y a aucun moyen de vérifier le prompt qui est envoyé au LLM avant le début de la conversation
Une loi arrivera (sûrement bien tard) pour indiquer sous chaque réponse « placement de produit », « mangez 5 fruits et légumes frais par jour », « privilégiez la mobilité douce »… bon OK 3 pages où un plugin cliquera automatiquement pour nous « j’ai compris »
Ils ont demandé à ChatGPT
En effet. Je ne fais pas confiance aux LLM pour me donner une information correcte. S’il faut vérifier en faisant des recherches classiques, autant directement faire ces recherches.
Par contre là où les LLMs sont un peu utiles, c’est pour démarrer un petit projet de programmation, découvrir un langage que l’on ne connaît pas, etc.
Je ne suis pas d’accord.
Techniquement, si l’entraînement n’est pas biaisé, les sorties d’une IA ne le sont pas non plus. Mais oui, il y a un fort risque de génération de « n’importe quoi » puisque que l’on ne peut pas avoir de garantie de pertinence et de fiabilité sur les résultats.
Par contre, l’utilisation d’IA pour générer des fake news ou tout autre contenu malhonnête est très « pratique », puisque les LLM sont justement fait pour pondre des contenus crédibles…
Il faut aussi avoir en tête que les LLM, c’est le buzz du moment, c’est impressionnant, mais ce n’est qu’une branche des IAs.
Non … il y a vraiment quelque chose de bizarre avec ces IAs. A mon avis ils les ont rendu stupides exprès parce que c’est pas possible d’avoir des réponses contradictoires d’affilés.
Claude anthropic est plus puissant que toutes les IA qui existent je te jure il connait même des dialectes qu’aucune IA n’arrive à traduire moi j’étais étonné de ça.
Mais depuis quelques mois j’ai remarqué qu’il se contredisait vachement et souvent il arrive même pas à faire la différence entre un nom et un adjectif (antéposé et postposé).
Ce qui m’étonne le plus, c’est les excuses et aussi l’IA essaye souvent d’aller dans mon sens même si je donne des réponses fausses.
Ces Robots sont devenus inutilisables pour moi car je sais pas quand il donne une bonne réponse et quand c’est faux.
Heu, vous vous emportez, non ? Qui rend son produit stupide « exprès » ?
Sur quels critères ? Je ne pense pas être d’accord avec vous sur mes cas d’usage
Certains commentaires consomment également de l’énergie pour rien Sinon je préfère qu’on parle des milliers d’hectares de forêts dévastées plutôt que d’un IA ou d’un PC, ou alors retournons vivre à l’âge de pierre !
Pas besoin d’IA pour dire n’importe quoi sur internet
Ta essayé déjà Claude 3.5 Sonnet ?? … la qualité des réponses est juste supérieure à ChatGPT et aux autres !
Même llama de Meta est mieux que ChatGPT … j’ai essayé avec plusieurs modèles de questions, je ne dis pas ça juste comme ça.
Claude par exemple connait des dialectes parlés dans 1 ou 2 pays c’est juste énorme … s’ils arrivent à mettre ça dans leur IA imagine ce qu’ils ont mis d’autres.
Moi je juge les IA sur le langage humain, parce que je vois souvent les comparaisons entre IAs qui se font sur la génération de codes ou bien la recherche selon les images, la programmation … blablabla
Moi les IA je les teste surtout dans des questions où on peut facilement se tromper et confondre et behhh je peux t’assurer que ChatGPT est nulle de ce côté.
J’ai remarqué aussi que les IAs ne sont pas très bien entrainées pour tout ce qui est grammaire, ils savent pas analyser correctement une phrase, parfois confondent les Compléments d’objet et les Complément circonstanciels …
Pour l’instant, aucune IA n’a réussi à différencier un complément du nom d’une apposition dans certains contextes.
Ceux qui apprennent une langue via ces IAs ils vont apprendre que des erreurs. Moi je conseil à personne de se fier à ces IAs dans les études !