Peut être pas de sources avec ChatGPT mais avec Bing oui.
Pas tout à fait. Ce sont des IAs conversationnelle, le contenu n’est pas ce qui les intéresse en premier lieu, c’est plus la forme (phraséologie) et la structure.
Raté. Une IA ne « stocke » rien et surtout il n’y a pas de base de données. On peut, par analogie humaine, considérer ça comme des souvenirs plus ou moins vagues, suivant la profondeur du réseau de neurone par exemple.
Encore une fois, on attend beaucoup trop des IAs conversationnelles. Elles ne font qu’aligner des mots qui paraissent cohérents, mais le fond n’a aucune importance et il n’y a pas de possibilité de valider les informations puisque la source n’est pas connue. On est exactement dans le cas de quelqu’un qui a lu quelque chose qu’il ne comprend pas et qu’il essaye d’expliquer, ça peut être correct, mais il y a de grandes chances qu’au moins les détails soient incorrects, voir toute la réponse.
D’ailleurs c’est aussi le cas de Wikipédia, même si il y a des contrôles et des références obligatoires pour valider un sujet, certains sujets sont mal traités, trop partiellement ou avec des biais, souvent parce que les rédacteurs n’avaient pas les compétences suffisantes (on se surestime souvent! ).
+1 !
Le hash n’est pas possible, le résultat est fluctuant, aucune chance d’avoir des hash constants… Mais je suis d’accord, Wikipedia pourrait à la fois être le fournisseur d’entraienement pour les IAs (et pas que conversationnelles) ET un producteur, mais il faut impérativement pouvoir tracer l’origine et l’auteur de chaque article.
Encore une fois, ChatGPT n’est qu’un beau parleur, il n’a pas de notions de logique et de compétences techniques. Et comme un être humain, il ne te sortira pas la même réponse 2 fois de suite car il aura appris d’autres questions / conversations entre temps.
On peut très bien imaginer
- Un être humain se servant de l’ia pour créer, améliorer un article de wikipedia voir faire de wikipedia le rêve de Diderot et d’Alembert, l’encyclopédie d’aujourd’hui, le rassemblement de toutes les connaissances toujours actualisé.
- Que wikipedia crée sa propre ia comme interface utilisateur pour interroger.
Allez, je te donne la journée pour me fournir une source, documentée, sur l’intelligence et la capacité de réflexion et d’argumentation de cet algorythme…
Qu’il y ait des changements dans ses réponses, c’est normal, je suis d’accord avec toi, mais là c’est des gros changements radicaux quand même, pour exemple, je lui demande si l’huile de nigelle est diurétique, premier jour il me dit que non pas du tout.
Le lendemain je lui repose la même question, et il me dit que oui, c’est très diurétique.
Le changement est édifiant tout de même
C’est dans le principe même de l’IA conversationnelle: elle semble donner une réponse pertinente, mais il n’y a aucune garantie, et on peut la manipuler en lui faisant « croire » n’importe quoi.
La probabilité d’une bonne réponse est relativement importante, mais il n’y a aucune garantie. L’intelligence est plus dans la synthèse approximative (c’est ce que fait un cerveau humain) mais les biais sont encore plus présents car au moins le cerveau humain a en partie conscience de ses limites et a des mécanismes de protection / correction (la prudence, la morale, … enfin, normalement mais pas toujours sur les réseaux sociaux! ). Et surtout, il n’y a aucun moyen d’estimer la validité de la réponse, c’est ce qui pose problème.
J’entends bien. Mais le problème est que coté I.A un flou bien volontaire est entretenu. Pour preuve cet invariable message d’excuse lorsqu’on remonte une erreur (encore faut il donc avoir pris le temps de faire des vérifications), spécifiant que l’I.A est en phase d’apprentissage. Ce message, parce qu’il n’est pas systématiquement affiché en début de conversation, parce qu’il mentionne cette « phase d’apprentissage », révèle clairement les ambitions commerciales de ces firmes qui est indiscutablement d’abuser l’utilisateur sur le service rendu.
Et sur cette base il est inévitable que quelques (et soyons raisonnable, de nombreux) utilisateurs soient abusés et reportent/dupliquent de bonne foi ces informations erronées sur la toile. Ces I.A sont des machines à produire du faux, des « faits alternatifs » en quantité industrielle. C’est alarmant, tous les indicateurs pointant déjà que le « vrai » est une valeur déjà très largement discutée.
Dans le titre c’est : « et » ou « est »?