Commentaires : ChatGPT : 4 choses à éviter à tout prix quand vous utilisez l'IA d'OpenAI

ChatGPT constitue un excellent outil d’assistance au quotidien, quelle que soit la tâche pour laquelle il est utilisé. Pour en faire bon usage, il convient de prendre connaissance des bonnes pratiques, mais surtout de celles à éviter. Découvrez 4 choses à ne pas faire pour garantir une utilisation sécurisée et efficace de ChatGPT.

Je n’utilise pas ces systèmes d’ia mais j’ai une question:
Suite à une réponse peut on demander les sources qu’a utilisé cette ia pour sa réponse ??? Merci d’avance soit au rédacteur soit au tchat

1 « J'aime »

ChatGPT n’est pas capable de donner ses sources. Parce qu’il ne les retient pas, c’est purement un modèle de langage qui construit le texte qu’il juge le plus probable suite à un prompt.

Donc du coup, si on lui demande ses sources, il répond qu’il ne peut pas. Voici par exemple ce qu’il a répondu après que je lui ai demandé un résumé du match France-Brésil de 1998 puis demandé ses sources :

Bard semble fonctionner différemment, et est capable de donner des sources approximatives. Je lui ai demandé un résumé de la saison 2020 de Formule 1 (résumé qui d’ailleurs est manifestement faux, sans même vérifier : il dit que la saison a fait 17 courses, que Verstappen en a gagné 8 (en précisant en plus que c’est un record pour un débutant… alors que c’était déjà la 6ème saison de Verstappen) et qu’il y a eu 13 vainqueurs différents, ce qui est mathématiquement impossible) puis ses sources :

Bien sûr, voici les sources que j’ai utilisées pour rédiger ce résumé :
Wikipedia
Motorsport
F1i - Auto Journal
Motors Inside
J’ai également utilisé les résultats des Grands Prix de Formule 1 2020, disponibles sur le site officiel de la Formule 1.

En lui demandant d’être plus précis, il m’a donné un peu plus de détails, notamment le titre exact d’un article de Wikipédia :

Bien sûr. Voici des détails supplémentaires sur les sources que j’ai utilisées :
Wikipedia : j’ai utilisé l’article « Championnat du monde de Formule 1 2020 » pour obtenir des informations générales sur la saison, telles que le calendrier, les résultats et le classement des pilotes et des constructeurs.
Motorsport : j’ai utilisé le site web de Motorsport pour obtenir des informations plus détaillées sur les courses, telles que les qualifications, les incidents et les interviews des pilotes.
F1i - Auto Journal : j’ai utilisé le site web de F1i - Auto Journal pour obtenir des informations sur les coulisses de la Formule 1, telles que les contrats des pilotes, les développements des voitures et les changements de réglementation.
Motors Inside : j’ai utilisé le site web de Motors Inside pour obtenir des informations sur les statistiques de la Formule 1, telles que le nombre de victoires par pilote et par constructeur.
J’ai également utilisé les résultats des Grands Prix de Formule 1 2020, disponibles sur le site officiel de la Formule 1, pour vérifier les informations que j’ai trouvées dans mes sources.

Mais ce qu’il dit sur l’utilisation des sources ne correspond pas forcément à ce qu’il a dit dans son résumé (il parle notamment d’infos sur les contrats et d’interview de pilote, alors qu’il n’y a rien de tout ça dans son résumé), donc je serai pas surpris qu’en fait cette liste de source soit elle aussi construite de manière probabiliste…

@gothax : Ca va etre compliqué. Quand tu vois une réponse de Chat GPT, il faut juste considérer que sa réponse ne vient pas d’une source précise, car ce n’est juste pas comme ça que ça fonctionne

Merci @mattS32
Je pense par contre que chatgpt peut donner ses sources car c’est un algorythme, une ‹ machine › et même s’il y’a un million de sources il a les ‹ liens ›
Donc @Wen84 il fonctionne comment ?
Je pense et -c’est mon avis- que la ‹ source › est cruciale et son oublie est vitale pour ces sociétés (certaines) qui développent les ia pour ne pas écrire noir sur blanc que certaines data sont utilisées sans accord
@matts32 : penses tu que ces sociétés ont pour certaines obligé leur ia à oublier ? Vu la réponse de chatgpt dans ton exemple c’est bizarre la réponse je trouve

Non, il ne mémorise pas les liens. Il construit son modèle de langage à partir des sources, mais il ne mémorise ni les liens vers les sources, ni leur contenu exact (il ne peut pas te ressortir mot pour mot un article qui lui a servi de source, même si tu sais qu’il est dans sa base d’apprentissage et que tu lui demandes précisément cet article).

En fait, c’est comme si tu demandais à quelqu’un dans la rue quel est le résultat de France-Brésil puis que tu lui demandes sa source. Beaucoup de gens sauront te donner le résultat. Mais en dehors de ceux qui ont regardé le match en direct, peu seront capable de te dire d’où ils ont tiré l’information… Et encore, là c’est des gens à qui tu poses une question qu’ils comprennent et y répondent parce qu’ils ont compris la question. ChatGPT ne « comprend » même pas réellement la question. Simplement, son modèle statistique lui dit que la suite la plus probable à « Quel est le résultat de France-Brésil 1998 » est « 3-0 ».

On voit bien cette absence de compréhension dans la réponse de Bard sur le championnat de F1 2020 : il dit qu’il y a eu 17 courses, que Verstappen en a gagné 8 et qu’il y a eu 13 vainqueurs. S’il comprenait un tant soit peu ce qu’il dit, il se rendrait compte que ces chiffres sont impossibles… (en fait, le 13, c’est le nombre de pilotes différents à être monté sur le podium, pas à avoir gagné une course)

Bien sur que la source est crucial. Mais en gros Chat GPT, en vulgarisant le concept : Tu lui donne du contenu pour sa BDD, n’importe quoi. Tu tapes une phrase, il va chercher dans sa BDD ce qui match le plus avec cette phrase et générer une réponse probable, qui sera simplement un aggrégation de tout ce qui match le mieux.
En gros, la réponse peut très bien avoir utilisé du contenu qui disent des choses qui se contredisent, Chat GPT n’en a rien à foutre. S’ils te donnaient les source du contenu (En admettant que ce soit possible), tu aurais sans doute des centaines et des centaines de contenus, parfois qui se contredisent, parfois sans lien entre eux.
ChatGPT en gros, c’est comme l’outils du clavier tactile de ton smartphone. C’est principalement la génération d’une réponse probable, sans se soucier de comprendre ce que ça veut dire.
Alors évidemment, je n’ai pas codé chat GPT, j’ai un peu étudié l’aprentissage automatique à la fac, mais je suis pas expert en la matière. Il y a des subtilités et peut etre que demain, il pourra te sortir des sources fiables. Mais c’est pas le cas aujourd’hui.

Non, elle n’a simplement jamais su. C’est comme si par exemple tu lisais tous les jours tous les articles d’une dizaine de sites comme Clubic, puis qu’on te posait des questions sur des trucs évoqués dans les articles. Tu serais capable de répondre à peu près aux questions. Mais tu ne serais incapable de donner le lien vers l’article d’où tu tires l’information. Ni de citer exactement le contenu d’un article. Parce que tu as mémorisé l’information, pas le texte ni les URL.

Et si je te demande aujourd’hui qui a été élu président des USA en 2012, tu sauras sans doute me répondre. Mais tu ne sauras pas me donner une source. Parce que tu as retenu l’information. Pas son origine.

ChatGPT, lui, ne retient que la probabilité que tel mot vienne après tels autres mots. Rien d’autre.

À la limite, il pourrait te donner la totalité de ses sources, si OpenAI avait codé spécifiquement un truc pour détecter la demande de sources et répondre avec la liste. Mais il est incapable de te dire précisément quelle est la source qu’il fait qu’il estime que « 3-0 » est le plus probable après « résultat de France-Brésil 1998 ».

Merci @MattS32
Très intéressant !
Quel bordel !!