Commentaires : Des experts en IA condamnent fermement un logiciel censé prévenir les crimes

Black Lives Matter… je ne veux pas rentrer dans le cliché mais je ne trouve pas la source de la photo, d’autant plus associé au titre, je trouve cela un peu limite!
Sachant qu’aucun de vos liens ne montre une photo de personne réelle, même d’un caucasien, associé a ce thème!

Et le lien vers techcrunch ne marche pas…

Personnellement, je ne trouve pas spécialement que la photo soit mal choisie. Car elle permet d’illustrer le problème que ce genre de logiciel risque de créer si on tient compte des biais de ceux qui vont « apprendre » au logiciel. Si pour ces personnes, la majorité des criminels en puissance sont de type peau mate/noire, on voit très vite où cela va mener.

https://usertribe.com/products/:

https://tineye.com/search/74071bb614177c503af375371eaad9da4588da87?page=1

https://www.shutterstock.com/fr/search/3d+facial+scan:

Dans un communiqué de presse, les auteurs affirment avoir développé un logiciel de reconnaissance faciale capable de « prédire si quelqu’un est un criminel en se basant uniquement sur une photo de son visage »

Et dans le communiqué de presse:
With 80 percent accuracy and with no racial bias, the software can predict if someone is a criminal based solely on a picture of their face. The software is intended to help law enforcement prevent crime.

Indépendamment des biais évoqués, comment donner quelque crédit scientifique aux escrocs qui font croire en cette fable ?
Le buzz de l’AI, alimenté par la croyance positiviste d’un public qui ne comprend pas le sujet, est devenu dangereux et nauséabond.
Ceux qui connaissent réellement la question ne sont malheureusement jamais entendu, étouffés par les mirages de la statistique et des probabilités, qui sont à des années-lumière des sciences de la complexité.
Des cours de psychologie cognitive devraient être obligatoires pour tout informaticien qui prétend parler d’IA…

prédire si quelqu’un est un criminel en se basant uniquement sur une photo de son visage

L’idée de base est parfaitement inquiétante, parce qu’elle n’est pas si éloignée de ce que les nazis faisaient : des mesures anthropométriques effectuées sur diverses races pour justifier leur « infériorité » génétique

En partie basé sur la méthode inventée par Alphonse Bertillon, bien évidemment détournée de son but premier (qui était l’identification judiciaire) pour servir la doctrine nazie…voilà à quoi me fait penser ce logiciel tss.gif

2 « J'aime »

La seule vraie prédiction possible au niveau des crimes (hors cas relevant de la psychiatrie) serait de surveiller en permanence tout le monde à tous les niveaux:

  • historique des sites consultés en ligne
  • historique des jeux pratiqués en ligne
  • historique des déplacements
  • historique des achats effectués (il faut que tous les paiements soient traçables)
  • connaissance de la situation personnelle et professionnelle de chacun: vie sentimentale, familiale ,amicale, sport, alimentation, type de travail, relations au travail, environnement quotidien
  • connaissance des antécédents médicaux de la personne
  • analyse de toutes les communications numériques de la personne (voix, SMS, réseaux sociaux)
  • conditions ambiantes: météo (fortes chaleurs qui font péter un câble par exemple), contexte sociale (mouvements nationaux de contestation, grèves, chômage, pénurie alimentaire)

Avec tout cela, on croise les données et on obtient un résultat plutôt pas mal je pense.

Mais sans moi un tel monde !

On fait en sorte que les gens n’aient pas besoin de commettre de crimes: éducation, de quoi manger, se loger, se faire soigner et supprimer le plus possible les causes de maladies, être à l’abri des agressions externes (nature ou humains).
Autant dire utopique au vu de la nature humaine à ce stade de son évolution. De mon point de vue.

1 « J'aime »

Ca rappelle quand même beaucoup la phrénologie du 19ème siècle, emballée dans une grosse couche de silicium et d’IA.
Il faut accepter que l’humain est faillible, qu’il peut changer aussi, dans un sens comme dans l’autre.
Une personne commettant un crime ne va pas forcément récidiver non plus. Même s’il y a des délinquants/criminels récidivistes, on a le droit de se ranger, on a le droit de devenir honnête, ou délinquant (Cela dépend en partie de l’age auquel on entre en politique :wink:

2 « J'aime »

Justement, c’est une bonne illustration du problème : quoi que disent les développeurs, les IA sont souvent racistes envers les gens d’origine africaine.
Une IA de gestion de CV par exemple refusait systématiquement tout les noirs, pourquoi ? Tout simplement à cause des pourcentages de crimes : la plupart viennent des quartiers défavorisés, rarement habités par des blancs, et l’IA est trop stupide pour réfléchir au delà des statistiques…

1 « J'aime »

… asiatique, hispanique, féminine, obèse, LGBT, etc.
Le journaliste a sciemment cherché une photo d’une personne noire inconnue pour illustrer son propos en faisant l’association noir=criminel… si c’est ce genre d’approche qui est utilisé pour entraîner les IA, en effet…

Bref, une photo faisant référence à une œuvre montrant les dérives de cette technologie aurait été plus en adéquation avec un vrai travail journalistique!

À ce rythme, pourquoi ne pas faire un algorithme pour déterminer si on est un criminel en fonction de la longueur du quatrième orteil gauche ?

Car il suffirait de se le couper en prétextant un accident de jardinage :joy:

Ce vrai qu’un biais s’installe très vite. Quand on parle de criminalité on pense toute suite à délinquance qu’ils qualifient d’urbaine, pas aux criminels en col blanc qui coûtent bien plus cher; la photo utilisée pour l’article l’illustre déjà très bien.
Je serais curieux de savoir comment réagirait cette IA devant une photo de Bernard Madoff?

Et une fenêtre d’Overton en plus… Ça paraît aberrant pour l’opinion public aujourd’hui, demain ça fera débat, et après, seront adoptées, les lois…

Méthodologie d’apprentissage qui n’est connue de personnes, qui plus est. S’ils se basent en complément,sur le ressenti des policiers c’est plutôt mal barré:
https://globalnews.ca/video/7104620/georgia-police-video-captures-violent-arrest-takedown-of-innocent-black-man
Arrivé il y a une semaine. Les policiers se rendent comptes qu’ils ont «  »« interpellé »"" la mauvais personne qui expliquait calmement se qu’il faisait ( et au passage brisé les côtes). Pas sûr que l’IA soit d’une grande aide…
On attend toujours le vaccin contre Covid made by IA ^^’

Elle ne réfléchit pas, justement, elle se réfère à sa base de données fondée sur l’apprentissage qu’on lui a fait suivre neutre

C’est pour ça que je ne crois pas que les IA sont/seront infaillibles, le facteur limitant sera toujours le facteur humain : les gens qui lui font suivre cet apprentissage et qui ne seront jamais totalement objectifs, répercutant peut-être même leurs préjugés et leurs à-priori sans s’en rendre compte tss.gif

Ca peut marché mais pas avec des photos, il faudrait prendre l’activité neuronale des violeurs, tueurs etc… Quoique… je sais pas …

« Sachant qu’aucun de vos liens ne montre une photo de personne réelle, même d’un caucasien, »

Si on pouvait éviter la classification raciale US pour éviter de dire « blanc » ou « occidental » , particulièrement idiote au passage (recherchez qui sont les caucasiens… merci pour eux)