Europol a publié un guide pratique, vendredi, destiné à combattre les biais algorithmiques dans les enquêtes policières. Les forces de l’ordre européennes ont désormais leur feuille de route anti-discrimination.
Le principal problème des intelligences artificielles réside dans leur manque de diversité dans la représentation du monde. Je me souviens que, lors du lancement de Google Gemini, cette problématique avait été abordée : il s’agissait d’éviter que les nazis soient systématiquement représentés comme des hommes blancs, en intégrant également des femmes noires dans ces représentations. Cette approche visant à promouvoir une vision plus diversifiée n’a cependant pas été bien accueillie par tout le monde.
Euh non. Il s’agissait d’éviter que l’IA ne représente que des hommes blancs en général et le fait d’avoir eu des nazis ou vikings noirs était un effet de bord.
je me suis fait refusé un commentaire sur un journal bien connu car j’avais écris Nazairiens qui sont les habitants de Saint Nazaire et ça va être de pire en pire !
Vive le PSG et cette belle journée si douce, on a absolument besoin d’une IA bisounours.
Il m’est arrivé dans un groupe google de support de Chrome l’aventure suivante :
Pour bien définir le problème j’ai précisé l’OS « openSUSE Tumbleweed ».
J’ai fait l’erreur d’écrire « openSUSE Tumble weed ».
L’algorithme a réagit sur le mot « weed » qui signifie haschiche. Il a invisibilisé mon post. J’ai eu droit à un avertissement comme quoi, je ne respectais pas les règles.
Le pire est qu’on n’a pas moyen de se défendre. Une parodie de justice.
Sans partir dans des dérives bien entendu contre productives voir limite légalement au regard de la loi, à un moment une IA avec apprentissage via données passées et actuelles n’"aura pas d’avis personnel, juste du factuel.
Par exemple si 80% des délinquants ont la peau bleue et du poil dans les oreilles, forcément l’IA, et à juste titre, en déduira qu’il faut se focaliser sur ce profil de peau bleue avec du poil dans les oreilles.
Oui, elle le fera. Mais ça ne sera pas à juste titre. Ce n’est pas parce que 80% des délinquants ont la peau bleu qu’il est acceptable d’avoir un préjugé négatif à l’encontre de toutes les personnes à la peau bleu.
Ca ne fonctionne QUE si les données d’apprentissage ne sont pas biaisées.
Et encore, cela implique que l’algorithme ne soit pas non plus volontairement conçu pour discriminer.
Bref, l’IA ne garanti pas quelque chose de forcément objectif.
Peut-être aura-t-elle raison, qui d’une IA ou d’idéalistes pour dire à quel point l’ensauvagement appelle une réponse où le dommage collatéral devient nécessaire faute d’avoir agit avant ?
Plus on attend, pire est le traitement, jusqu’au point où il peut presque tuer le malade … Sinon autant ne rien faire et laisser libre court à tous les vilains et laisser la maladie prospérer.
Le monopole de la violence légale, facilitée par l’IA, restera, je l’espère, dans les mains de l’état et pas quelques milices.
L’ordre ne reviendra pas tout seul et si la société devient injuste dans certains cas, si le but politique visé est le retour de la sécurité et de la tranquillité et si le citoyen en comprend la nécessité, il acceptera que pour un temps il puisse être victime collatérale, attrapé avec les autres dans la nasse, puis innocenté par la suite.
Quelque part refuser d’abandonner cette liberté deviendrait complice de l’augmentation des différentes violences dont on constate les explosions, la tranquillité publique est attaquée et doit être protégée car nous somme en république, probablement la chose publique doit l’emporter, au moins temporairement, sur les droits individuels des vilains .
Il y a des responsabilités à prendre … Et, effectivement ça sera toujours plus facile de dire, c’est le robot qui a fait du zel chef, C’est la faute de l’IA.
Seul le résultat compte, des individus policés, éduqués qui votent avec intelligence et participent de manière constructive à la république, sans casser, haire, voler, tuer, se plaindre et (s’) austraciser.
L’IA aura un gros effet levier, avantages et inconvenients à la clé.
Facile à dire quand on fait partie de ceux qui ne risquent pas trop de faire partie de ces victimes collatérales…
La réalité pour ceux qui en sont victimes, c’est qu’ils sont déjà nombreux à le vivre mal, et l’accentuer encore ne pourra mener qu’à provoquer du ressentiment vis à vis des autres… Et c’est la société qui en sort perdante. Je connais par exemple personnellement plusieurs personnes qui étaient parfaitement intégrées dans la société française, hautement diplômés, payaient leurs impôts, mais qui, un peu trop « typés » aux yeux des FDO, subissaient trop souvent des contrôles au faciès (et ce n’est pas un mythe : j’ai personnellement pu constater certains de ces contrôles en étant avec eux… et ce sont d’ailleurs les seules fois où j’ai été contrôlé dans la rue) et ont fini par se barrer à l’étranger… La France, qui a investi sur eux en leur finançant master et doctorat n’aura du coup aucun retour sur son investissement.
Je comprends, j’en connais aussi, mais en politique on ne traite que par généralité … Il est difficile d’ériger l’exception en généralité, et les résultats lorsqu on l’a fait ne sont pas au niveau des bénéfices escomptés, le taux de raffinage est faible … Et ça coûte « un pognon de dingue ». L’IA va (se) généraliser, c’est peut être un mal pour un bien.