Les biais racistes et misogynes des intelligences artificielles sont transmis aux robots qui les utilisent. Un problème de taille qui pourrait avoir des comportements dangereux envers les femmes et les personnes non blanches.
On ne produit que des choses à notre image, et comme il y a aux USA beaucoup de gens qui sont discriminant par rapport aux Afro-Américains et aux typés Arabe, on se retrouve avec des IA raciste, c’est valable pour la Belgique et la France aussi où l’on trouve beaucoup de discrimination et dans bien d’autres pays Européens.
Une des solutions ne serait elle pas de bannir les réseaux sociaux de leur « apprentissage »?
Aux US, où les statistiques ethniques sont autorisées, on a des chiffres sur la susceptibilité de telle ou telle ethnie à commettre tel ou tel crime. Rien d’étonnant à ce que des algo de prédiction en tiennent compte.
Ce qui est plus choquant est l’existence de ces algo, mais c’est une autre question.
Par exemple, je suis à peu prés certain que ces algo vont aussi suspecter en priorité les hommes plutôt que les femmes, puisqu’il y a beaucoup plus d’hommes qui commettent des homicides par exemple. Doit-on crier au scandale ici ? Apparemment non.
Autre point, et j’en reste là car ça pourrait durer des heures, ça fait des décennies qu’on encourage les jeunes femmes à faire des études d’info. Aucun pays n’a jamais réussi à faire décoller leurs chiffres, même pas en Scandinavie, qui est pourtant souvent citée pour ses efforts dans la recherche idéologique de l’égalitarisme.
A un moment il va falloir réécouter les neuro-chirurgiens et autres ethnologues qui depuis longtemps décrivent les différences d’appétence selon les sexes.
C’est marrant, cette histoire d’IA raciste. Il ne faut pas mettre de robots policiers ou contrôleurs dans le métro.
C’est un sujet délicat où soit on est d’accord avec l’article qui accepte que le problème d’un algorithme, c’est qu’il ne fournit pas un résultat voulu et désiré.
Soit on est un dangereux facho réac qu’il faut sanctionner par tous les moyens et humilier publiquement.
l’entre 2 et le simple échange intelligent n’étant donc pas autorisé.
C’est un monde vraiment étrange
Il faut aussi admettre que, depuis un moment, si tu es un « Homme Blanc Hétérosexuel », tu es l’incarnation du mal…
Une IA qui doit s’en prendre aux plus pauvres qu’aux puissants en plus
Les statistiques ethniques existent aussi en France quand ça a une utilité autre que compter pour compter.
Et ça fait des décennies qu’on dit qu’il ne suffit pas d’encourager pour que le problème ne persiste pas.
Miam de la belle evopsy.
Comme disait Coluche :
“Dieu a dit, il y aura des hommes blancs, des hommes noirs, il y aura des hommes grands, des hommes petits. Il y aura des hommes beaux, des hommes moches et tous seront égaux, mais ça sera pas facile.”
Coluche n’a pas attendu l’IA pour s’en rendre compte.
Si tu fait une IA qui détecte les délits d’initiés, la fraude fiscale ou le blanchiment, je parie que l’on ne trouvera pas de pauvres…
Le problème, c’est que les IAs donnent des résultats proches des statistiques! Et ce n’est pas le fait de faire des spécialistes de l’entrainement de couleur ou des femmes qui changera quoique ce soit, les erreurs sont dus aux problèmes bien connus des IAs: les biais à l’entrainement et les résultats qui ne correspondent pas aux attentes et sont éliminés sans qu’il y ait d’analyse du pourquoi.
Elle a notamment recours à des drones équipés d’IA qui semblent se concentrer sur les communautés noires marginalisées, déjà exposées à la violence policière et aux abus de la justice
Source sur une telle affirmation ? Ça ressemble à une idée préconçue de l’auteur de l’article, pas à un fait. Ah, le biais inconscient, l’ironie…
C’est quoi cet article sérieusement ? Comme dit plus haut, on n’a pas fui numerama pour en retrouver l’équivalent ici…
Faire la différence entre les hommes et les femmes c’est être misogyne ?
C’est comme les races, ce sera effacé des livres de biologie.
Suis pas sur que ça ne soit qu’un problème américain. En France et en Europe on fait aussi des IA. Le problème pourrait être du à pleins de facteurs. Au modèle d’entrainement, aux difficultés a appréhender les différences physiques… Bref du code reste du code…
Juste une remarque: ça n’a jamais été dans les livres de biologie, puisque ça n’existe pas biologiquement. C’est plus probablement dans les livres d’histoire que tu voulais dire? Ou dans la littérature en général?
Mdr, une I.A raciste, attention aux retour de flammes, une I.A programmée de manière raciste peut-être reprogrammée pour être racistes envers les blancs, les super-programmeurs de ce monde ne sont pas tous blancs, Terminator il a bien été reprogrammé, lol.
Le mérite, c est le mérite, blanc ou noir pas besoin d excuse minoritaire, quand tu fais mieux ou au moins aussi bien que les autres, tu trouveras ta place, pas besoin de quotas.
Le mérite c est pragmatique si l évaluation est objective et honnête.
Que penser de ce gouvernement paritaire 21/21, c est pragmatique ou idéologique ?
Et ces IA américaines, que dire, effectivement les stats ethniques sont autorisées et pourquoi, sans doute par culture, les pays anglo-saxons sont majoritairement protestants, la pensée spirituelle et du monde y est plus concrète et pragmatique.
Très hypocritement d ailleurs si tu es plus riche et plus fort, Dieu t as choisit, il n y a donc pas de problèmes pour écraser le faible et étaler richesse et puissance.
Le pragmatisme fera peu attention aux dommages collatéraux, tant qu il respecte l’ordre des nombres et quantites
Et puis la reconnaissance faciale et les ia ne sont plus la prédilection américaine, la Chine a 10 à 20 ans d avance en la matière.
Si tu avais lu mon post en entier tu te serais rendu compte que dans la deuxième partie de mon post je dis que c’est valable aussi pour la Belgique et la France et plus loin j’écris « et dans bien d’autres pays Européens. »
je suis d’accord avec toi que ce n’est que du code, mais tu trouveras quand même bizarre que ces IA deviennent racistes et misogynes.