Commentaires : Pourquoi les nouvelles limites de Bing ChatGPT semblent le rendre... bien plus bête

Microsoft a mis en place plusieurs barrières autour de son chatbot afin de limiter les réponses inappropriées, mais cela n’est pas sans conséquences.

Je viens d’y passer : ça change, du moteur habituel.
Étant donné qu’il est en test, en dire plus, ce n’est pas logique.

Après bing, et hop, à la poubelle.

2 « J'aime »

Perso, je commence a saturer des articles sur le chat …

sur reddit ils disent que les premiers jours c’était autrement plus performant chat gpt, pour avoir testé un peu au début je suis assez d’accord même si c’est peut être un biais cognitif mais je pense pas, c’est dommage, à force de le nerfer pour choquer personne il sort plus rien d’original

Qu’est ce que ça doit être alors🤣

ChatGPT est déjà catastrophique à la base !
Il raconte n’importe quoi. Quand on s’en rend compte, il s’excuse, puis donne une autre réponse toute aussi réaliste mais toute aussi fausse🤦‍♂️

J’ai déjà remarqué ça pour 3 sujets différents :

  • Codage : fait référence à des librairies / fonctions qui n’existent pas, de façon réaliste
  • Technologie : il invente des formules (réalistes) et schémas (complètement à coté de la plaque). (Ça concernait des mesures avec jauges extensométriques et pont de Wheatstone)
  • Donne des réponses réalistes en citant des articles scientifiques qui n’existent pas, en donnant des DOI qui n’existent pas ou correspondent complètement à autre chose

Bref, si vous n’avez besoin de rien ou juste besoin de baratiner un truc abstrait demandez à ChatGPT !

Un bon outil pour les forces de vente donc… :slight_smile:

1 « J'aime »