Commentaires : Mastodon : le Twitter décentralisé a encore un problème à résoudre

Les contenus à caractère pédopornographique prolifèrent sur Mastodon selon une étude menée par l’université de Stanford.

Après, c’est aussi une conséquence logique d’avoir fait reposer un pan de la lutte contre les contenus péso-pornographiques sur les modérations internes et automatisés des gros réseaux sociaux.

Forcément, quand elle n’est pas présente, ça part davantage en vrille. Mais au delà de la question de la modération, il y a la question du propriétaire du site. Qu’est-ce qu’on met en place pour simplifier les enquêtes et mettre devant le fait accompli les hébergeurs de ces contenus. Parce que le principe de la décentralisation, c’est bien que chacun gère son bout de terrain avec ses responsabilités.

Mastadon (ses développeurs et gestionnaires) doit mettre en place un moyen de plus efficacement marqué les instances comme problématique légalement (dans ce cas-là notamment). Mais ce n’est pas eux qui possède ces instances en question et c’est à l’hébergeur et la justice de prendre le relais.

1 « J'aime »

« Comment Mastodon va-t-il faire pour mettre fin à ce problème sans attenter à la nature même de son organisation ? »

Je dirais que Mastodon a juste à exclure l’utilisation à des fins illégales dans ses CGU.

Mastodon est un logiciel, pas un réseau. Les administrateurs de serveurs hébergent eux même, ce sont donc eux qui sont pénalement responsables, ainsi que tous ceux qui postent ou consultent du contenu illégal.

3 « J'aime »

Si un pédophile regarde un contenu pedopornographique sur un site Web créé avec WordPress, considère t’on que l’éditeur de WordPress est responsable ? Bien sûr que non.

Mastodon c’est la même chose : ce n’est pas un site Web mais une application que l’on installe sur un serveur comme on le ferait pour n’importe quel CMS.
La seule chose qui change c’est le système de fédération qui permet aux instances de communiquer entre elles si jamais l’administrateur a activé la fonction. Or dans le cas d’instances illégales, elles feront de toute manière systématiquement le choix de rester dans leur coin par discrétion.

Donc à partir de là Mastodon ne risque pas grand chose je pense.

1 « J'aime »

Une solution, que des gouvernements se mettent ok pour mettre à disposition gratuitement un modèle pour IA pouvant reconnaître ces photos à problème.

Pourquoi un gouvernement ? Car pour entraîner ces modèles, il faut bien une base de photos que personne ne veut chez lui.

Il y a aussi le fait que les admins de ces instances peuvent très bien blacklister les instances en question. Cela est arrivé lors de chamaillerie sur des listes de blocage qui circulé au début de Mastodon.