My bad pour les majuscules, c’était surtout pour l’emphase (j’aurais pu mettre en gras, en italique, ou en fluo ^^).
Non mais les gens sont, pardon, mais débiles s’ils sont pas capables de comprendre (faire l’effort de) que c’est pas opérationnel avec 100 % de véracité. Non seulement c’est dit d’entrée, mais c’est pas difficile de le voir, suffit de poser des questions, et lui poser l’inverse dans la foulée, ou contredire son résultat pour voir qu’il se range à ce qu’on dit. Et qu’un peu comme un Google, il nous donnera toujours une réponse (et donc, quand donner une bonne réponse n’est pas possible, il nous en donne une fausse. Qu’importe la forme.).
Le problème c’est pas l’IA à ce niveau, c’est l’interface chaise-clavier. 
Si les gens sont pas capables de vérifier, et prennent tout au premier degré, déjà qu’est-ce qu’ils font sur Internet ? (bon là je plaisante, enfin… à moitié).
C’est du niveau des américains pour qui il a fallu préciser dans la notice des micro-ondes que "non, faut pas y faire sécher votre animal de compagnie… ". 
Il est rappelé quand on ouvre la page qu’il faut vérifier les infos que donnent l’IA (et du coup, si on s’en sert avec ce principe, elle est d’une aide prodigieuse !).
C’est sûr que si on s’en sert pour obtenir des infos accurates à 100 %, on en est encore loin. Mais ça, c’est parce qu’on n’a pas compris à quoi elle sert et comment elle fonctionne. C’est ça qui me « choque ».
Au passage, si on fait l’effort minime de lire ici « https://help.openai.com/en/articles/6783457-what-is-chatgpt », le 4e point dit ceci :
Can I trust that the AI is telling me the truth?
ChatGPT is not connected to the internet, and it can occasionally produce incorrect answers. It has limited knowledge of world and events after 2021 and may also occasionally produce harmful instructions or biased content.
We'd recommend checking whether responses from the model are accurate or not. If you find an answer is incorrect, please provide that feedback by using the "Thumbs Down" button.
Il faut quoi de plus ?
D’où ma référence au réflexe US de coller des procès pour un oui ou un non, parce que sur un malentendu par chez eux, ça peut rapporter.
Cette IA (et les autres en cours/en parallèle) est un outil. Ce n’est pas parce qu’elle écrit des mots, des phrases, que subitement ça en fait quelque chose de responsable du contenu.
Cet outil n’est pas plus responsable de l’usage qu’un humain en fait, que lorsqu’un humain achète une cuillère pour manger son yahourt, pocher l’oeil du voisin avec, ou s’en servir de tuteur pour ses plantes.
C’est pas aux créateurs de la petite cuillère d’aller surveiller que personne ne s’en sert autrement que pour manger avec.
Et s’il y en a assez stupide pour creuser avec ou qui ont l’envie de s’en servir pour faire un château de petites cuillères, ou pour écrire des horreurs à base de petites cuillères sur le sol… et bien c’est la responsabilité des auteurs, pas des créateurs.
Là on mélange tout parce que le service apporté par l’outil c’est des mots, des phrases, des paragraphes. La responsabilité est pourtant la même.
L’IA n’est pas en train d’écrire par dessus tout ce qui a été écrit sur Internet, ni de remplacer l’Histoire, ni de s’inventer un « Roman International pour IA ». 
Si elle faisait ça, là oui, on pourrait s’alarmer.
Le jour où c’est branché sur un Wikipédia et que ça commence à tout réécrire, okay, faut paniquer et débrancher l’truc.
Mais d’ici là… c’est un problème d’interface chaise-clavier. Comme bien souvent.
[Ajout ci-dessous pour l’ouverture de sujet/et ou le troll]
Mais, le problème c’est qu’il est en accès public et que des gens vont prendre au premier degré ce que ChatGPT va raconter. Ce qui peut-être problématique.
Ça nous pose pourtant absolument aucun problème avec tous les « livres sacrés ».
Quand on aura une discussion (avec les américains ?) sur ce sujet trollesque par définition depuis le début de l’Ecriture, on pourra peut-être s’inquiéter d’une IA mal gérée. 