Commentaires : Apple veut repérer les contenus pédophiles sur iPhone avant leur publication sur iCloud

Dans une volonté de protection des mineurs, Apple va commencer à vérifier les photos téléchargées sur son service iCloud
dans une base de données de matériel pédopornographique (CSAM).

1 « J'aime »

Ça m’a l’air assez casse-gueule comme cooperation, ils ont vraiment la confiance en leur algorithme de comparaison…

Spécialité des multinationales et gouvernement américain, on utilise la peur et la sécurité pour contrôler et espionné tout le monde .

La boite de Pandore va pouvoir être ouverte, et pour une bonne raison.
Puis on va au passage analyser les images pour des raisons commerciales, ou autres raisons moins justifiables.

5 « J'aime »

Ils se présente toujours en sauveur pour pouvoir faire leur business .

2 « J'aime »

Une vérification humaine sera toutefois enclenchée avant le signalement d’un compte aux forces de l’ordre pour s’assurer de l’authenticité de toute correspondance avant de signaler un utilisateur.

J’imagine très bien la scène : «Oui monsieur, on a détecté une photo pédophilique sur votre appareil, pouvez-vous nous confirmer si c’est bien le cas ? Si oui, on vous transfert à la police immédiatement. Inutile de l’effacer, nous la conservons dans notre base de données comme preuve.
Non, ce n’est pas ce genre de photo, ok, bonne journée ! »

[-…le système a seulement « un risque sur mille milliards » de créer de faux positifs. En cas d’erreur, les propriétaires pourront faire appel pour ne pas voir leurs comptes suspendus.

  • …cet outil est « conçu dans le respect de la vie privée des utilisateurs »]
    :-l

Quel intérêt de faire ça en prévenant les pédophiles à l’avance. Il leur suffira de garder leur photo sur leur téléphone ou d’utiliser un autre cloud. Tant qu’à attenter à la vie privée, autant que cela serve à quelque chose d’utile. Là ça ne sert à rien, ce n’est qu’un effet d’annonce.

Si ce système se base sur des comparaisons et non pas des analyses des photos, cela signifie que ça ne peut fonctionner qu’avec les photos déjà connues, et non pas avec celles nouvellement prises, juste ? Auquel cas ça limite fortement l’intérêt, sans parler des dangers que cela représente pour la vie privée.

2 « J'aime »

J’ai une vidéo de mes enfants entrain de se barboter dans le bain. Comment va interpreter ça leur Siri ?

1 « J'aime »

Je plains les humains qui seront confrontés à de telles images.
Respect pour les policiers/gendarmes qui bossent sur ces affaires. Ils doivent voir des choses que jamais je ne souhaiterais voir !!!

2 « J'aime »

Leur IA a déjà du mal avec une simple reconnaissance faciale, le risque est énorme d’avoir des faux positifs. Et on se retrouve fiché.

Le système ne fonctionnant qu’avec les photos stockées sur iCloud, désactiver la synchro et c’est fini… par contre le risque demeure pour ceux qui n’ont rien à se reprocher.

1 « J'aime »

Vous avez tous tout à fait raison mais d’un autre côté, je suis surpris que cela n’avait pas été envisagé bien avant.

Apple a vos coordonnées bancaires et personnelles. La première chose à laquelle j’ai pensée en créant mon compte, c’est à leur arrière pensée pour repérer d’éventuels criminels de tous bords.

Les USA sont dans cette logique que fliquer tout le monde. Edward Snowden nous avait prévenus à ses risques et périls.

2 « J'aime »

Pédophilie, le fameux 2ème mot après terrorisme pour que les gens soient prêts à perdre encore un peu de leurs vies privés, libertés… Vite un sondage !
…Et tout cela pour rien, on peut très bien donner de fausses infos.
Par exemple pour la carte SIM prépayée, cela me gonflait de donner mes vraies infos (question de principes et je m’y tiens), tant pis s’ils me coupaient ma ligne après 2 semaines, mais cela a fonctionné.
Sinon je serais parti vers la carte ukrainienne : ########
Le créateur du site a même indiqué quelque part qu’il y a beaucoup de politiques qui en demandent une. :-)))
Faites ce que je dis, ne faites pas ce que je fais.

Edit modo : lien enlevé !

La pedophilie est quelque chose qui existe seulement depuis internet. Cette comparaison d images est donc necessaire pour la securite seulement de tous les utilisareurs. Les pedophiles sont si stupide qu ils vont echanger leur photo sur les serveurs clouds et donc se faire attraper tres facilement par la police.

Deux articles de OsNews semblent assez pessimistes sur ce scan des photos par Apple :

  • Apple: critics of continuous iPhone photo scanning are “screeching voices of the minority”. Apple is going to scan all photos on every iPhone to see if any of them match against a dataset of photos – that Apple itself hasn’t verified – given to them by the authorities of countries in which this is rolled out, with final checks being done by (third party) reviewers who are most likely traumatized, overworked, underpaid, and easily infiltrated.
  • The problem with perceptual hashes. Oliver Kuederle, who works with the image hashing technology used by Apple’s new technology that’s going to scan the photos on your iOS device continuously, explains that it is far, far from foolproof: « Perceptual hashes are messy. The simple fact that image data is reduced to a small number of bits leads to collisions and therefore false positives. When such algorithms are used to detect criminal activities, especially at Apple scale, many innocent people can potentially face serious problems. »

Des experts en sécurité, vie privée, cryptographie etc. ont déjà publié une lettre ouverte affirmant que des dérives avec ce système sont plus que probables.

  • “It’s impossible to build a client-side scanning system that can only be used for sexually explicit images sent or received by children. As a consequence, even a well-intentioned effort to build such a system will break key promises of the messenger’s encryption itself and open the door to broader abuses […] That’s not a slippery slope; that’s a fully built system just waiting for external pressure to make the slightest change.”
  • The Center for Democracy and Technology has said that it is “deeply concerned that Apple’s changes in fact create new risks to children and all users, and mark a significant departure from long-held privacy and security protocols”
  • while “Apple’s new detector for child sexual abuse material (CSAM) is promoted under the umbrella of child protection and privacy, it is a firm step towards prevalent surveillance and control”.
  • Fundamental design flaws in Apple’s proposed approach have also been pointed out by experts, who have claimed that “Apple can trivially use different media fingerprinting datasets for each user. For one user it could be child abuse, for another it could be a much broader category”, thereby enabling selective content tracking for targeted users.
  • Etc., la lettre est trop longue pour pouvoir être résumée ici.

??? Ça doit être de l’ironie mal habillée (surtout vu le nom du posteur)? Non. Voir l’église catholique si besoin d’un exemple plus ancien.

1 « J'aime »

Ce n etait pas de l ironie mais juste un troll que je ne cache pas vu mon pseudo. Je partage votre point de vue, la pedophilie existe depuis toujours, mais elle est souvent presentee comme l unique mal d internet servant a justifier les atteintes a la vie privee et aux donnees personnelles.

@Oldtimer: Aucune crainte, sauf si celle-ci est dans la base de données sur les abus pédosexuels US ==> « Il consisterait à confronter les images contenues dans l’iPhone d’une personne avec celles de la base de données sur les abus pédosexuels de la police américaine. »

1 « J'aime »

Bizarrement personne ne commente
Précisons que la plupart des autres grands fournisseurs de technologie (Google, Facebook , Microsoft) vérifient déjà les images de leurs services en les comparant à une base de données d’images connues.

Il est tout à fait normal que Google, par exemple, vérifie le contenu qui est mis à disposition publiquement sur YouTube, sur des serveurs lui appartenant.
Cela n’a rien à voir avec ce qu’Apple va faire, à savoir analyser en local sur le téléphone des données et prendre des mesures lorsqu’elles seront téléversées sur un cloud privé.

1 « J'aime »