Mis au point par Xiaoran Zhang, Emilia Stoica et Clayton Holz, Toxic Content Detection with Interpretability Feature permet de repérer les messages comportant des propos déplacés.
Donc on va s’en remettre à une IA qui n’aura ni humour, ni second degré, ni ironie pour savoir ce qu’on peut dire…
ça c’était avant. Beaucoup de progrès ont été faits depuis, notamment sur l’humour, l’humeur, le ton etc.
C’est Bilbrother ? ^^
les gens moins arrogants et avec beaucoup moins de prétentions savaient rire et plaisanter, mais ça c’était avant que les gens deviennent ce qu’ils sont !?
Exactement. Maintenant on peut enfin se concentrer sur les blagues bien plates et sans saveur, mais au moins elles sont correctes. Les blagues de Toto y a que ça de vrai.
Aseptisation et bien pensant Microsoft …
Ou comment annihiler la liberté d’expression et imposer un modèle unique de pensée. … entendez vous les bottes qui claquent dans les rues?
L’ IA va bientôt contrôler entièrement notre cadre de vie, bienvenus dans la matrice.
Les commentaires bien prévisibles…
D’abord, l’algorithme est une aide à la détection, ça reste le rôle d’un humain de modérer, donc à l’appréciation de la compagnie qui l’embauche, pas à l’appréciation de l’algorithme.
Ensuite, arrêtez de confondre liberté d’expression et droit de dire n’importe quoi.
La liberté d’expression a toujours été encadrée légalement et les contenus toxiques font partie de ce que la loi puni (heureusement). Par exemple, le harcèlement, le chantage, l’incitation à la haine, la désinformation et j’en passe.
Vous pourrez toujours raconter vos blagues de beauf et dire du prochain président qu’il mène (lui aussi) la France dans le mur et que le monde est pourri.
Et oui, le mauvais goût et le pessimisme ne sont pas des contenus toxiques, juste des contenus inintéressants.