Commentaires : Pourquoi ce maire pourrait porter plainte contre ChatGPT

C’est quand même écrit en toute première page et phrase avant qu’on utilise l’IA.

Il faudrait que ça soit en rouge sur jaune fluo clignotant ?
A un moment les gens peuvent aussi juste lire ce qui est devant leurs yeux… et pas l’oublier quand ça les arrange. Non ? :confused:

Si tu poses des questions sur n’importe qui, l’IA dira surement n’importe quoi. Est-ce vraiment utile d’être 1 milliards à porter plainte contre une version beta d’un outil ?
Sérieusement.
C’est pas comme si c’était Wikipédia qui annonce essayer d’apporter une information la plus neutre possible en l’état des connaissances du moment, où là, oui, s’il y avait diffamation il pourrait y avoir discussion.

5. Restez courtois

Particulièrement lorsque vous exprimez votre désaccord, critiquez les idées, pas les personnes. Évitez à tout prix les insultes, les attaques et autres jugements sur la forme des messages.

6. Publiez des messages utiles

Chaque participation a vocation à enrichir la discussion, aussi les partages d’humeurs personnelles ne doivent pas venir gêner le fil des échanges.

Ouais bon c’est une version beta ouvert à tous et commercialisé.

C’est un peu facile de se réfugier derrière ça.

Faudrait effectivement que ce soit en jaune fluo clignotant et en plus au milieu de l’écran et si possible non effaçable juste en cliquant sur ok ou en tapant entrée.
Si vous saviez le nombre de portable qu’on m’a apporté avec un disque dur cassé alors qu’il y avait un message explicite sur l’écran à chaque démarrage depuis plus d’une semaine demandant de sauvegarder les données pour cause de défaillance de disque… mais comme il suffisait de taper sur la touche entrée même pas je lis le message encadré en rouge … vous n’en reviendriez pas.

1 « J'aime »

Je ne puis qu’admirer un fan pur et dur de GRR Martin. :thinking::blush:

1 « J'aime »

Il y a des tas d’outils dangereux avec des notices longues comme le bras pour avertir des risques si mal utilisés.
Et pourtant ils sont vendus.
Même principe.

A un moment c’est AUSSI de la responsabilité de l’utilisateur.

Le fait que certains s’amusent (à juste titre, d’une certaine manière, car c’est ça qui permet d’améliorer la qualité des réponses de l’IA) à lui faire dire n’importe quoi, ou lui faire dire l’inverse et son contraire dans la même conversation, ou à la faire dérailler sur le point de la logique, c’est ce qui rend l’outil meilleur.

Si on commence à juste la jouer à l’américaine et à lui faire des procès chaque fois qu’un random utilisateur s’amuse à montrer qu’elle n’est pas parfaite, alors non seulement on risque pas de l’améliorer mais en plus on risque de se priver de ce genre d’outils.
Donc, rien qu’à voir les commentaires ici et là, la plupart n’entrevoit pas du tout une once du potentiel gigantesque !

C’est du niveau « Oh, un ordinateur personnel pour les gens, ça n’a aucune utilité. Ça marchera jamais. ».
Alors que désormais même les administrations nécessitent pour un usage plus simple et plus rapide qu’on ait des machines pour se connecter aux sites Internets desdites administrations.

Rappelez-vous le monde avant les ordinateurs, avant Internet, et avant les téléphones portables.
(Pour les amateurs de jeux de rôle, on voit vite que dans des univers presque contemporains on a pris des réflexes qui étaient juste impensables et impossibles il y a 30 ans.).

1 « J'aime »

Je répondait sur le fait que c’est en phase beta et donc non attaquable.

Ensuite il ne faut pas confondre un produit et un service.
Et même sans produits et services, il y a produit et produit, et services et services.

T’as des produits qui sont difficilement trouvables car on sait qu’en usage détourné c’est vite dangereux.

En produit, c’est pareil.

Enfin, le maire se retrouve diffamé sur un truc facilement évitable. C’est le produit/service qui est en cause.

Ce n’est pas un détournement d’un produit/service.

Dernier point, si le produit n’est pas « fini », il n’a pas à être commercialisé. S’il y a des tests à faire. Ben ils trouvent des testeurs, et ça reste fermé etc…

Pour le reste, je ne prends pas la peine de répondre, c’est complètement HS, ou alors tu t’adressait a quelqu’un d’autre.

Qu’est-ce qui empêche le maire, au lieu de se faire mousser publiquement, d’aller reporter son « bug » comme n’importe qui ?

Et, si effectivement au bout d’un moment ce qu’il remarque à juste titre est encore d’actualité, ALORS de porter ça à un niveau plus haut ?
Je critique surtout le côté « on va porter plainte au moindre truc qui va pas », qui deviendra assez rapidement « hey, et si je trollais en collant des procès pour tout et rien parce que ça rapporte de l’argent ? ».

D’accord avec toi sur le fait qu’un produit non terminé n’a pas à être commercialisé.
Malheureusement je dois aussi me résoudre à accepter un autre morceau de la réalité, où on arrive à un niveau où il n’est pas possible de maintenir un produit/service/whatever de ce niveau gratuitement durant sa période de test (déjà parce qu’on n’a AUCUNE idée du temps que ça prendra pour avoir un résultat « acceptable ».).

Plus on fera des choses complexes, et plus ce genre de cas peut arriver (de pas pouvoir proposer des versions gratuites, sinon on peut juste pas tester efficacement ce qu’on invente).

Pour le reste, je m’adressais effectivement à d’autres personnes qui ont la négation de la technologie bien rapide à mes yeux. ^^
Certains font de la négation de ce qui s’est déjà passé, d’autres de ce qui pourrait se passer en l’inventant d’après des films. 2 choses qui me ma chatouillent. :wink:

Déjà, majuscule = crier.
Donc, on se détend, merci.

Ensuite, en expérimentation, oui, c’est certain.
Mais, le problème c’est qu’il est en accès public et que des gens vont prendre au premier degré ce que ChatGPT va raconter. Ce qui peut-être problématique.

Et ne va pas me raconter que les gens devraient vérifier ce qu’il raconte, on sait bien que ce ne sera pas le cas.

3 « J'aime »

My bad pour les majuscules, c’était surtout pour l’emphase (j’aurais pu mettre en gras, en italique, ou en fluo ^^).

Non mais les gens sont, pardon, mais débiles s’ils sont pas capables de comprendre (faire l’effort de) que c’est pas opérationnel avec 100 % de véracité. Non seulement c’est dit d’entrée, mais c’est pas difficile de le voir, suffit de poser des questions, et lui poser l’inverse dans la foulée, ou contredire son résultat pour voir qu’il se range à ce qu’on dit. Et qu’un peu comme un Google, il nous donnera toujours une réponse (et donc, quand donner une bonne réponse n’est pas possible, il nous en donne une fausse. Qu’importe la forme.).

Le problème c’est pas l’IA à ce niveau, c’est l’interface chaise-clavier. :crazy_face:
Si les gens sont pas capables de vérifier, et prennent tout au premier degré, déjà qu’est-ce qu’ils font sur Internet ? (bon là je plaisante, enfin… à moitié).
C’est du niveau des américains pour qui il a fallu préciser dans la notice des micro-ondes que "non, faut pas y faire sécher votre animal de compagnie… ". :man_facepalming:

Il est rappelé quand on ouvre la page qu’il faut vérifier les infos que donnent l’IA (et du coup, si on s’en sert avec ce principe, elle est d’une aide prodigieuse !).
C’est sûr que si on s’en sert pour obtenir des infos accurates à 100 %, on en est encore loin. Mais ça, c’est parce qu’on n’a pas compris à quoi elle sert et comment elle fonctionne. C’est ça qui me « choque ».

Au passage, si on fait l’effort minime de lire ici « https://help.openai.com/en/articles/6783457-what-is-chatgpt », le 4e point dit ceci :

Can I trust that the AI is telling me the truth?

ChatGPT is not connected to the internet, and it can occasionally produce incorrect answers. It has limited knowledge of world and events after 2021 and may also occasionally produce harmful instructions or biased content.

We'd recommend checking whether responses from the model are accurate or not. If you find an answer is incorrect, please provide that feedback by using the "Thumbs Down" button.

Il faut quoi de plus ?
D’où ma référence au réflexe US de coller des procès pour un oui ou un non, parce que sur un malentendu par chez eux, ça peut rapporter.

Cette IA (et les autres en cours/en parallèle) est un outil. Ce n’est pas parce qu’elle écrit des mots, des phrases, que subitement ça en fait quelque chose de responsable du contenu.
Cet outil n’est pas plus responsable de l’usage qu’un humain en fait, que lorsqu’un humain achète une cuillère pour manger son yahourt, pocher l’oeil du voisin avec, ou s’en servir de tuteur pour ses plantes.
C’est pas aux créateurs de la petite cuillère d’aller surveiller que personne ne s’en sert autrement que pour manger avec.
Et s’il y en a assez stupide pour creuser avec ou qui ont l’envie de s’en servir pour faire un château de petites cuillères, ou pour écrire des horreurs à base de petites cuillères sur le sol… et bien c’est la responsabilité des auteurs, pas des créateurs.

Là on mélange tout parce que le service apporté par l’outil c’est des mots, des phrases, des paragraphes. La responsabilité est pourtant la même.
L’IA n’est pas en train d’écrire par dessus tout ce qui a été écrit sur Internet, ni de remplacer l’Histoire, ni de s’inventer un « Roman International pour IA ». :smiley:
Si elle faisait ça, là oui, on pourrait s’alarmer.
Le jour où c’est branché sur un Wikipédia et que ça commence à tout réécrire, okay, faut paniquer et débrancher l’truc.

Mais d’ici là… c’est un problème d’interface chaise-clavier. Comme bien souvent.

[Ajout ci-dessous pour l’ouverture de sujet/et ou le troll]

Mais, le problème c’est qu’il est en accès public et que des gens vont prendre au premier degré ce que ChatGPT va raconter. Ce qui peut-être problématique.

Ça nous pose pourtant absolument aucun problème avec tous les « livres sacrés ».
Quand on aura une discussion (avec les américains ?) sur ce sujet trollesque par définition depuis le début de l’Ecriture, on pourra peut-être s’inquiéter d’une IA mal gérée. :upside_down_face:

Voir I-Rebot ;
Un rebot ne peut être accusé de meurtre !
Mort de rire, un robot genre tourneuse fraiseuse programmable, ne peut être accusée de quoi que ce soit !
Aller on accuse Word et correcteur d’orthographe.

Le maire a peut être reportée un bug aussi. J’en sais rien.

C’est juste qu’à priori il y a préjudice. Donc ce n’est plus un simple bug a reporter.

N’importe quoi… A ce compte là…tu arrêtes aussi internet. Vu le nombre de con…qu’on y voit…
Perso je vois surtout dans l’lA la possibilité de faire du traitement massif de datas par exemple.
C’est comme tout… A partir du moment où tu mets a disposition une technologie il y en aura toujours un quelque part qui va la dévoyer…:thinking::thinking:

Cet article est dans la droite ligne de ce qui se passe en Europe qui va légiférer, interdire son usage et essayer de faire fléchir les américains afin de respecter notre législation. Peine perdue et procès bidons.
Arrêtez les journalistes d’être dans la bienséance et de faire du sensationnel.
Vous feriez mieux d’expliquer aux lecteurs comment fonctionne ChatGPT, pourquoi on peut obtenir de telles réponses, comment il va évoluer dès l’instant où il sera connecté à Internet, etc…
Pitié faites de l’éducation pas du buzz et du sensationnel.
Rien n’arrêtera l’IA, ce n’est que le début, que ça plaise ou non on devra faire avec.
Seule question: Pourra-on dominer l’IA en tant qu’outil et comment se protéger, comme dans toutes les technologies, des dérives et d’un usage pervers.
Je fais le travail des journalistes en vous recommandant de lire cet article qui explique bien comment fonctionne Chat GPT aujourd’hui (ce qui ne sera plus vrai dans six mois) pour mieux comprendre de telles réponses : https://www.cnet.com/tech/services-and-software/use-cnet-shopping-to-seek-out-the-best-deals/ ou encore cette vidéo https://youtu.be/R2fjRbc9Sa0
Le sensationnel c’est bien Chat GPT et non pas les procès ou les gesticulations de l’Europe. Alors pitié parlez de lui et non pas des discutions de comptoirs de bars…

Ha bon tu trouves que je suis agressif ?:hushed: He ben désolé… mais ça n’était pas mon intention.
Mais pour le reste l’IA n’est pas non plus une zone de non droits …:face_with_raised_eyebrow:
Elle peut …et doit certainement évoluer.

Tu peux le rappeller tant que tu veux. A partir du moment où la personne a décidé de prendre l’info pour argent contant, bah c’est fini, game over.

Combien de fois on a déjà vu des messages du genre « je m’en fous que ce soit faux, ça va dans le sens de ce que je pense » (pas forcément sur Clubic hein) ?

Je me demande bien qui tu intègres dans le « nous ».

1 « J'aime »

meme si certains pensent que l’idee de porter plainte est saugrenue, en attendant cela lui fait une pub, et comme il est conservateur, son public est sans doute compose de gens qui sont par defaut avec des aprioris negatifs contre l’ia et chat gpt.

en n’etant pas que de mauvaise foi, on peut aussi imaginer que cette plainte va mettre sur le devant de la scene les gens qui etaient detenteurs de l’information ceuillie par l’ia qui ont peut etre ete negligeants ou imprudents. Quand on porte plainte on n’est pas oblige de n’assigner qu’une personne :wink:

J’habite a moins de deux heures de lui, et j’en avais pas entendu parle avant clubic. Il s’agit aussi d’un tres petit patelin un peu au milieu de nulle part (mais sans doute tres joli)

Bien le bonjour ABC.
En quoi carinae serait « mon collègue » ?
En quoi mon raisonnement te semble fallacieux ?

Sinon en ce qui me concerne, je ne suis ni agressif ni irrespectueux (tant qu’on ne l’est pas avec moi la plupart du temps).
Par contre ça m’est insupportable de voir des articles parfois très mal écrits, avec peu de réflexion critique, au milieu d’autres de meilleure qualité. Le tout contribuant à une cacophonie sur le fonctionnement des IA, ce qu’on leur attribue au lieu de l’attribuer aux personnes qui s’en servent, et ainsi de suite. Le bruit parfait pour dire tout et son contraire en même temps (ou faire parler les gens).

Bref, au plaisir !

Et donc ne pas lire les règles ça dispense de la responsabilité ? :crazy_face:
(je sais pertinemment qu’on ne peut pas tout lire, mais là on parle pas de CGU qui nous prendraient littéralement 3 mois de notre vie chaque année, mais d’une pov’ ligne ou d’un paragraphe. C’est pas la mer à boire !).

Oui, et on continuera de voir des messages de ce genre (« je m 'en fous que ce soit faux, ça va dans le sens de ce que je pense ») si personne ne fait la remarque (ou quand on se fait punir pour faire la remarque !
Et d’ailleurs, ça, ça m’est arrivé sur Clubic. Et pas qu’ici. Y compris sur un site où je suis modo’ depuis presque 20 ans. Comme quoi, si ça va pas dans « le bon sens », la gâchette est vite activée. L’excuse est arrivée après, mais il a fallu prouver la bêtise initiale… donc du temps, de l’énergie, etc. Bref, c’est un autre sujet !).

Le problème c’est pas forcément que des gens puissent s’en servir de travers, le problème c’est qu’il faut avoir en face une mesure de la fiabilité/véracité de la chose.
Typiquement, quand je pose une question à ChatGPT, je lui demande sur quoi il se base. Puis je lui demande l’inverse. Puis je lui demande de me « chiffrer » la fiabilité de son info’. Et ça, ça permet de voir quand il est complètement à l’ouest, ou quand il détourne [sans volonté aucune !] des informations sans le savoir.

C’est ça qui fait l’intérêt de l’outil. Mais encore faut-il éviter de le diaboliser par principe, et surtout par incompréhension du fonctionnement, ou comme souvent par peur des usages. Y’a tout à construire.

Le « nous » ici signifie « les humains de notre époque en l’an 2023 ». Donc un « nous » bien global. ^^
C’est un trait d’humour qui plaira pas à tout le monde (et c’est pas fait pour), mais si on me dit sans broncher que « attention, des gens pourraient prendre au premier degré ce qui est en accès public », on peut dire ça d’absolument tous les livres, contenus audio, vidéo, et j’en passe, depuis que ça existe.
Donc le problème n’est pas nouveau, c’est pas l’IA qui l’amène.