Forum Clubic

Commentaires : Oui, Google scanne vos mails et documents Drive à la recherche de contenus pédopornographiques

Dans la lutte tentaculaire contre la pédopornographie, les principaux acteurs du stockage en ligne
ont une part active à jouer afin de détecter des contenus potentiellement illégaux stockés par le biais de leurs services.

Là, je dis ok, même tant mieux.
Mais quelle est la limite ?

1 J'aime

La c’est vraiment le fond du débat… Être pour ou contre ce genre de pratiques, la je ne sais vraiment pas.
Il est impératif de lutter contre la pédopornographie, mais a quel prix ?

C’est certainement pas la seule chose que Google cherche dans vos mails.

Les agences américaines doivent aussi s’y donner a coeur joie dans la fouille de ces mails non chiffrés

7 J'aime

La fronde d’utilisateurs, des services Apple entre autres, contre la volonté de la Pomme de scanner les fichiers pour en détecter de potentiels CSAM, montre que de telles actions n’avaient pas (du tout) fait l’unanimité.

Sauf que ça n’a rien à voir puisqu’Apple avait prévu d’installer un mouchard en local pour scanner le contenu de l’appareil, et non pas le faire pour des fichiers déposés sur ses serveurs.

1 J'aime

C’est scandaleux, la cause est juste mais en faisant ça ils lisent le contenu et vont voir via les faux positifs ou autre du contenu qui ne les regarde pas.

2 J'aime

Comme s’ils ne le faisaient que pour cette raison ; quelqu’un en doutait ? Au moins, en avançant cette raison, ça permet de légitimer. :smirk:

6 J'aime

ce cheval de Troie " pédopornographie ou terrorisme" ils ont bon dos pour vous faire passez la pilule qui sera bleue pour ceux qui comprendront .

8 J'aime

Oui et ils ne scannent pas que pour ça… Secrets industriels, contrats, … tout y passe.
Faut vraiment être naïf pour être un chef d’entreprise et stocker ses données chez AWS, MS, Google et autres géants de la data.

Stocker ses données chez quelqu’un c’est perdre toute propriété de celle-ci.

7 J'aime

surtout que j’ai un gros doute (ou un apriorisme) que ces sous humains de pédophiles (ou de terroristes) partagent/stockent leurs vices via et sur des services grand public. Des chiffres sont donné: « 1,5 million de contenus potentiellement CSAM, regroupés dans quelque 180 000 rapports » mais quid du nombre de perquisitions et mieux d’inculpations. Bref quand on voit comment en France les services de police/gendarmerie ont du mal à remonter les filières j’ai un peu de mal à avaler la pilule d’une solution aussi simple qu’un scan des données stockées quasi à la vue de tous.

2 J'aime

ça surveille les sites pédophiles, mais pas les ventes d’armes ou de drogue ?

4 J'aime

@benben99 Les agences americaines recherchent des informations ciblés . La photo de de tante jeannette au Maroc . Ils en ont rien à faire

3 J'aime

Alors comme c’est une cause morale, que çà concerne les enfants, plein de gens vont trouver çà super.

Mais accepteriez vous, en rentrant chez vous, de trouver un inconnu dans votre bureau, occupé à lire tous vos documents privés sans votre accord ?

Et qui vous prouvera qu’il n’a pas profité de sa lecture pour prendre un maximum d’informations vous concernant?

La récolte de données à l’insu de votre plein gré: Une des plaies du siècle.

4 J'aime

Le cloud, ce n’est pas chez nous.

2 J'aime

Si ils se contentent de faire ça je dit oui évidemment, mais bon c’est Google, je ne les voient pas laisser les données non utilisées pour du ciblage :confused:

1 J'aime

Le mieux c’est de ne pas être chez Google.

entièrement d’accord, ne pas laisser n’importe quoi dans le cloud ou les mails est encore mieux et c’est à nous de choisir ce que l’on veut

et ce n’est pas mieux chez les autres, faut pas rêver

1 J'aime

Vu qu’aucun gouvernement considère que cette lutte rapporte et donc n’y met aucun moyen, heureusement que les sociétés privées le font.

Google utilise des outils d’analyse d’images et de vidéos pour que les utilisateurs se disent qu’il s’agit simplement d’un programme qui lit leurs données. Donc que ce n’est pas très grave. Mais même une IA très fiable nécessite une vérification humaine. Des employés consultent donc les images/vidéos des utilisateurs.