Et si la meilleure façon de repérer une intelligence artificielle en ligne était de noter sa politesse quasi parfaite ? Une étude récente montre que les bots, trop lisses et bienveillants, se font pincer à cause de leur incapacité à imiter nos charmants défauts, notamment notre fameuse mauvaise humeur.
Je sais pas si je ne dois pas rire de cette conclusion.
L’IA tient des propos lisses parce qu’on la veut lisse. Il suffit de ressortir les vieux dossiers pour s’en convaincre (L’ia de MS qui devient n**zi, le « bug » de grok dernièrement). Les bots n’ont aucun probleme à etre des gros trolls
Cela demeure du « chat », du bavardage et je n’y vois pas là un intérêt de l’IA pire quand on explore le côté dramatique des conséquences des dépendances qui y sont liées.
Si c’est pour travailler, il n’y a pas d’échanges courtois, les IA vous donnent des éléments utiles pour votre(vos) activité(s). Tout est dans le prompt quand on a quelque chose à faire. Dans cette optique là, il n’y a pas ces problèmes émotionnels qui n’ont pas lieu d’être. Je ne vois pas pourquoi entrainer l’IA à être plus humaine.
Bah le truc c’est qu’il me semble évident qu’il y a aussi une économie avec les IA qui ressemblent à un humain.
Ca va concerner une grande partie des échanges chat GPT et compagnie, c’est juste logique. Il y a tout un tas d’échanges virtuels qui vont attirer la masse.