Un débat fait rage entre WhatsApp et les associations de défense des enfants. En ligne de mire, une technologie nommée EE2E (End to end encryption). Ce système utilisé par la firme américaine permet de sécuriser vos communications, rendant les données indéchiffrables par un tiers.
L’excuse des pedophiles… Avec eux au moins, on pourrait mettre Paris dans une bouteille.
Une réponse qui fait grincer des dents l’association NSPCC (National Society for the Prevention of Cruelty to Children, association luttant contre la maltraitance des enfants au Royaume-Uni) […]
Et ils ne réalisent pas que, si par exemple ils arrivent à faire plier WhatsApp, les personnes souhaitant échanger du contenu pédo-pornographique s’empresseront de migrer vers une autre plate-forme ? Et qu’elles trouveront toujours un outil qui leur permet de le faire ?
S’ils promettent ça va.
Promis c’est promis.
Si, c’est exactement ce dont on parle. Car du moment que tu acceptes que le contenu de ton appareil soit scanné, alors tu ouvres la porte à toutes les dérives possibles.
Avec l’argument « si ça peut sauver un et un seul enfant, alors allons-y », on pourrait justifier tout un tas de choses, comme la surveillance généralisée et permanente de l’ensemble de la population, que ce soit dans l’espace public mais également privé. Pourquoi par exemple ne pas exiger que nos téléphones portables enregistrent en permanence les images et le sons, et que les fabricants, les opérateurs réseau et la police aient accès à ces données ? Après tout, « si ça peut sauver un et un seul enfant »…
En plus ces pédophiles sont islamo-gauchistes pro Poutine non ?
Certaines agences gouvernementales peuvent en effet abuser de faux prétextes pour essayer de faire passer des lois liberticides, les US font semble-t-il très fort en la matière.
La question n’est pas de savoir ce que la démarche concerne, mais les risques qu’elle induit.
Sachant que la solution n’est pour l’instant pas en place, il n’y a en effet pas d’abus. Si elle l’était, nul ne peut dire s’il y aurait des abus ou non.
Et pourquoi, selon toi ?
La réponse : c’est justement parce que certaines personnes se soucient des libertés individuelles et tirent la sonnette d’alarme à chaque fois que des lois liberticides sont proposées, généralement toujours en utilisant le fameux argument « c’est pour protéger nos enfants ! ». Si ces personnes n’étaient pas là, on aurait très probablement beaucoup plus de caméras de sécurités dans l’espace publique et un flicage généralisé de tous les faits et gestes de chaque citoyen. Personnellement, ça ne me fait vraiment pas rêver comme perspective, mais chacun son truc…
Absolument pas. C’est un argument basé sur la proportionnalité de la réponse. Faut-il lutter contre la pédo-criminalité ? Sans l’ombre d’un doute. Faut-il installer des mouchards dans chaque appareil électronique dans l’espoir de détecter davantage de pédo-criminels ? Non, et 100x non.
Si Apple souhaite analyser toutes les photos et tous les documents qu’un utilisateur téléverse sur ses serveurs, il n’y a aucun problème, elle est tout à fait libre de le faire (et, au passage, elle le fait). Si Apple veut via une mise à jour logicielle installer sur l’ensemble des iPhone en circulation un mécanisme qui va scanner en local les photos dans chaque iPhone, c’est parfaitement inacceptable. L’entreprise voulait le faire, elle a dû reculer devant le tollé que ça a provoqué, et c’est une excellente chose.
Même chose pour WhatsApp. Ils souhaitent offrir des communications chiffrées de bout en bout ? C’est leur droit, et c’est une très bonne chose. Il est hors de question qu’une loi vienne les obliger à transporter les messages en clair sous prétexte de lutter contre la pédo-criminalité.
Un exemple parmi beaucoup d’autres :
https://information.tv5monde.com/info/loi-antiterroriste-et-surveillance-d-internet-en-france-c-est-une-violation-de-la-charte#:~:text=épreuve%20du%20terrorisme-,France%20%3A%20la%20loi%20antiterroriste%20et%20surveillance%20d’Internet%20"est,surveillance%20de%20masse%20sur%20Internet.
Bien sûr que non. Il faut que ça soit stoppé avant d’être mis en place et que ça aille « trop loin ». C’est exactement ce qui a été fait avec le projet d’Apple de lancer une mise à jour avec un mécanisme pouvant scanner en local les photos dans chaque iPhone.
Si les personnes qui se soucient des libertés individuelles avaient, comme tu le préconises, attendu de voir s’il y a des abus pour agir, on peut être certains que jamais l’entreprise ne serait revenu en arrière et que la fonctionnalité aurait été déployée.
Justement pas, puisque dans ce cas précis ça a été stoppé avant que ça arrive. Ça serait bien de ne pas déformer la réalité.
En effet, je suis contre le fait d’instrumentaliser la protection des enfants pour mettre en place des lois ou des technologies qui vont menacer les libertés individuelles.
On se rappellera quand même que ton premier « argument » ci-dessus c’était « je n’ai rien à me reprocher, donc pas de souci », ce qui est ce qu’on peut imaginer de pire comme façon de raisonner.
C’est tellement classique. D’abord : « j’attends encore un seul exemple ». Et une fois qu’on en a donné un. « Oui, mais bon, bla bla bla, tu en as d’autres ? ».
Quel intérêt, puisque de toute façon aucun des exemples que je pourrais te donner ne te semblera satisfaisant ?
Je te laisse relire l’article : ce qui est proposé c’est que les services de messageries ne fasse plus de chiffrement de bout en bout, qui empêche aux services de messagerie et aux autorités de savoir quel type de contenu est échangé.
C’est marrant, mais c’est exactement le contraire de ce que tu dis ci-dessus avec le « ça sera stoppé en temps et en heures quand ça ira trop loin ».
Comme toujours, le plus gros risque de ce genre de chose est politique.
Si on scan tes photos, ta liberté en prend un coup par défaut.
Parce que le jour où ton gouvernement considère que tu n’as pas le droit de ceci ou cela, ou se sert de toi pour atteindre quelqu’un d’autre, et bien c’est déjà trop tard.
Cf. l’activiste dont l’avion a été détourné pour le faire arrêter parce que les autorités du pays sur lequel l’avion passait (et ne faisait QUE passer) ont eu connaissance de qui voyageait dedans…
Et à la base l’avion ne devait pas passer par dessus, mais à côté du pays.
L’activiste est désormais en prison. Voilà un risque réel. Alors oui, les pays autour ont protesté, mais en attendant le type dort en prison pour avoir juste fait du travail de journaliste contre le pouvoir politique de son pays.
Attendre de voir ? Ahah.
@Feladan @HAL1
Sans pour autant imaginer le pire, il semble que prévoir un outil de collecte sans l’encadrer est source de dérives. Par exemple, la reconnaissance faciale chinoise, et son social score.
L’idée en soit n’est pas forcément mauvaise, même si l’exécution est un peu trop répréssionniste, mais la dérive d’utilisation à des faims politiques et ethnique est juste inacceptable.
Donc ce que je comprends dans les propos de @HAL1 c’est qu’il faut limiter, encadrer l’usage. Et ça me paraît sain.
Cependant, la où j’ai l’impression que la paranoïa prends le dessus, c’est qu’il ne faut pas non plus imaginer que forcément un outil sera détourné.
Donc si demain Signal (j’ai quitté WhatsApp lorsque j’ai trouvé mes SMS en ligne sur fb sans mon accord) analyse mes messages, images vidéos à la recherche de contenu pedopornographique, ça m’ira très bien.
Édit : je parle des contenus qui transitent via l’application, et qui sont déchiffrés en local
Exactement. C’est bien pour cela qu’il faut être vigilant en amont, et ne pas attendre qu’une diminution des libertés soit mise en place pour réagir.
Et il faut absolument éviter les simplifications de type « si tu n’as rien à te reprocher, tu ne devrais pas être contre » ou « c’est pour protéger nos enfants, tu ne t’opposes pas à ça ou bien ? ».
Si une loi exige que des caméras soient installées dans chaque appartement et chaque maison et que les autorités aient accès 24 heures sur 24 aux images pour « protéger les enfants et améliorer la lutte contre la pédo-criminalité », la question ne sera pas de savoir si cela présente un risque pour le respect des libertés individuelles : le risque existera et sera considérable. Si cette loi n’est pas adoptée, le risque n’existera pas. C’est aussi simple que ça.
Pardon ?! L’idée en soi est totalement abominable !
Et cette dérive est indissociable de l’idée de base. Même dans une démocratie quasi-parfaite (et c’est quelque chose qui n’a jamais été atteint et le sera très probablement jamais) il serait impossible de se prémunir contre une telle dérive.
Si, c’est justement ce qu’il faut imaginer si on veut évaluer le risque. La totalité des outils et des technologies inventés par l’être humain depuis l’aube de l’humanité ont été détournés dans des buts militaires ou criminels. On ne peut pas empêcher la recherche d’avancer (et ça serait une gigantesque erreur de vouloir le faire !), par contre on peut lutter autant que possible contre les dérives qui apparaîtront suite à de nouvelles inventions.
À ce niveau, la reconnaissance faciale est un bon exemple récent.
En effet, tu t’entêtes à ne pas vouloir comprendre, et c’est dommage.
Je l’ai déjà dit, et je le répète : la lutte contre la pédo-criminalité est essentielle et devrait même être sacrément renforcée. Simplement, venir dire « il suffit de supprimer le chiffrement de bout en bout, de toute manière les personnes qui n’ont rien à se reprocher et qui ne sont pas contre le fait de mieux protéger les enfants n’ont aucune raison de s’y opposer » c’est malhonnête et ça ne peut en aucun cas être la solution.
Y a-t-il d’autres solutions ? Peut-être, et si la National Society for the Prevention of Cruelty to Children ou d’autres associations qui visent à protéger les enfants veulent en proposer, alors c’est très bien. Pour l’instant, ce qu’on constate, c’est que lorsqu’on leur dit que la protection de la vie privée est importante ils « grincent des dents »…
Appliquons le raisonnement que vous utilisez pour affirmer que l’idée en soi est mauvaise, pour vérifier l’alignement des inventions passées :
Le moteur a combustion interne ? On en a fait des tanks et des avions pour tuer et détruire en masse. A l’aube de cette invention votre raisonnement l’aurai empêchée.
L’électricité ? On tue des hommes avec, et parfois c’est hors de contrôle, et on provoque de graves incendies avec. Sans oublier les ravages écologiques qu’engendrent sa production.
Encore une fois, en ayant ça en tête, difficile de l’autoriser.
Pas besoin de continuer, on s’aperçoit vite que votre raisonnement est bien trop extrême pour pouvoir l’utiliser.
Sans pour autant dénigrer le fond de votre pensée, il me semble qu’il faut savoir s’opposer à un danger et non pas un risque.
Petit parallèle avec la construction de machines, où nous sommes tenu de supprimer les dangers, en les transformant en des risques acceptables. Par exemple, on carterise (mettre des portes et barrières) les machines pour supprimer le danger des parties mobiles (par exemple). Cependant, les capteurs et actionneurs bien que de sécurité ont toujours une probabilité de défaillance. On repousse donc ce danger en risque ayant une probabilité minime.
Édit : typo
Non, ce dont on s’aperçoit c’est que vous n’avez pas compris mon raisonnement et que vous avez complètement ignoré cette partie de mon commentaire :
On ne peut pas empêcher la recherche d’avancer (et ça serait une gigantesque erreur de vouloir le faire !), par contre on peut lutter autant que possible contre les dérives qui apparaîtront suite à de nouvelles inventions.
À ce niveau, la reconnaissance faciale est un bon exemple récent.
Pour rappel, on ne parle pas ici « d’empêcher une invention », mais d’éviter que de faux-prétextes soient utilisés pour réduire les libertés individuelles. Ça n’a strictement rien à voir avec le fait « d’empêcher une invention ».
Les prétextes d’empêcher, c’est vous qui les donnez jusqu’à présent.
Dommage que vous ne voyez pas que votre propre raisonnement se mord la queue.
Pour en revenir au sujet, vous fustigez la possibilité que des échanges soient scannés par WA, au prétexte des libertés individuelles. Donc vous souhaitez empêcher ce qui est pour vous une dérive.
Mais en même temps, vous souhaitez que la pédopornographie soit combattue, et que les avancées technologiques se fassent.
Ambivalent, surtout quand vous vous contentez de rejeter la solution proposée, sans en proposer d’autres.
je ne rentrerais pas dans le débat des « libertés individuelles » ni dans la définition « d’empêcher une invention ».
Ben voyons. C’est sûr que le monde est binaire, hein… Soit les échanges ne sont plus chiffrés de bout en bout et la pédo-criminalité est combattue, soit c’est l’exact inverse.
On pourra avec plaisir continuer la discussion lorsque vous serez sorti de ces schémas manichéens.
P.S. : Ça paraît hallucinant que je doive le souligner, mais actuellement les échanges sur WhatsApp sont chiffrés de bout en bout. Et je souhaite que cela continue à être le cas. Mais c’est sûr que c’est moi qui souhaite « empêcher », pas vrai…?
Ce n’est pas parce qu’on souhaite défendre quelque chose qu’il faut fermer les yeux sur des méthodes qui apporteraient elles aussi un autre danger.
Et le coup de « tant que c’est pas arrivé », allez l’expliquer à tous les activistes qui se sont fait chopper, emprisonner, voire tuer. Parce que ça, c’est AUSSI la réalité.
C’est pas pour rien que les données sont une forme de champ de bataille de l’ère de l’information.
C’est pas pour rien qu’on tape sur ceux qui en font des usages tordus, ou vendent des outils où l’éthique n’existe pas. Cf. le dernier gros logiciel espion d’une entreprise Israélienne (le fameux « projet pegazus ») qui a permis de surveiller, sous couvert de vouloir bien faire et de surveiller des terroristes, des politiques et des journalistes (entre autres).
Ce qui est « marrant », c’est quand même que d’un côté on a des gens qui sont prêts à tout pour cacher des secrets d’entreprises, en dépit du bon sens parfois, mais qui n’ont aucun problème à l’idée d’avoir littéralement toute sa vie perso’ accessible à n’importe qui et n’importe quoi.
Y’a rien de binaire dans ce monde.
On ne dit pas qu’il faut interdire les petites cuillères parce qu’on peut pocher des yeux avec. Juste qu’il faut peut-être pas les réaliser dans une forme qui facilite le pochage d’oeil…