Commentaires : Utilisée pour des portraits-robots, l'IA fait preuve de racisme

L’idée de deux développeurs américains de confier la réalisation de portraits-robots à une intelligence artificielle ne plaît pas aux experts du domaine.

« On est pas sortis des ronces… »

#Kaamelott

1 « J'aime »

Le problème n’est pas là!
Le problème c’est qu’à la base, l’IA va éliminer ou proposer des cas qui ne devraient pas l’être. Il faut considérer les taux de faux positifs et de faux négatifs. L’IA, aura moins de probabilité de te désigner un blanc qu’un noir tout deux innocents (faux positif) ou éliminer un blanc plus qu’un noir tout deux coupables (faux négatif), c’est là le biais et il est VRAIMENT grave. Il ne FAUT aucune dérive de faux positifs / faux négatifs suivant des catégories, quelqu’elle soit.
Je sais que ce n’est pas évident au premier abord, le « bon sens » est à la ramasse sur ce coup là. Cela fait partie des gros problèmes des IA, la sélection des données d’entrainement est une tannée! Ce ne sont pas forcément des biais des concepteurs, mais des données disponibles, surtout que ce n’est souvent pas aussi évident que pour le cas des criminels hommes non blancs…

3 « J'aime »

Bon :

Visiblement certains n’ont pas lu l’article et d’autres en profite pour balancer des commentaires racistes.

Les propos ou sous entendus racistes n’ont pas leur place ici.

2 « J'aime »

« Mal nommer les choses, c’est ajouter au malheur de ce monde », Camus 1944.

1 « J'aime »

Sauf si intervention humaine fournissant a l’IA des données faussés / biaisés, l’IA n’a pas vraiment d’intelligence hormis le brassage de données!

Mais est elle plus ou moins raciste que la police américaine ? :thinking:

@gemini7 on a déjà un obsédé d’Israël sur Clubic, pas besoin d’un second. jap

Ho le massacre !
A chaque fois, on a les mêmes discours. Et on a viré mon commentaire. Je me demande pourquoi ! :disappointed_relieved:

Ce n’est pas moi qui l’ait fait, mais peu importe, c’est parce qu’il était une réponse à un message supprimé. jap

Parce que ton commentaire est ignoble et n’a RIEN à faire là. RIEN.

Une IA fonctionne en terme de probabilité et donne une résultat selon le plus probable. De 0 à 1 (0 à 100%). A ma connaissance l’IA n’atteint jamais les 100%.

Les faux positifs, tout le monde en fait. Je pense que l’histoire est pleine de mecs condamnés à mort par erreur basée sur un jugement « éthique » car rendu par des hommes ?

Ce qu’il faudrait savoir, est ce que l’IA fait mieux ou pire que l’homme et non pas occulter ses réponses car elles ne sont pas politiquement correct.

Statiquement, les prisons sont remplies par qu’elles profiles ? Normal que l’IA essaye de se baser dessus.

1 « J'aime »

« Ce biais, appliqué à une machine soi-disant neutre, est particulièrement injuste pour les personnes noires et hispaniques, beaucoup plus souvent arrêtées et condamnées que le reste de la population (jusqu’à 5 fois plus que les personnes blanches) »

Si l’IA est raciste alors cette phrase du dessus est raciste. Et plus globalement, les statistiques sont racistes.

PS: Je me demande si je vais être ban pour avoir fait un copier-coller de l’article …

Ahah, littéralement, je vais copier/coller mon dernier commentaire sur un autre article parlant d’IA ! x)

"
On peut arrêter de personnaliser les IA ?
Ce n’est pas l’IA qui dérape, ce sont ses algo’, et/ou les gens qui les ont codées, et/ou le corpus de données sur lequel l’IA se base pour réaliser son apprentissage.

A trop personnifier une technologie (le fantasme absolu du Terminator… ce film fait du mal à ces technologies depuis si longtemps), on s’empêche d’en comprendre le fonctionnement.
"

Ici, c’est plutôt le corpus de données qui donnent ces mauvais résultats.
Après, en tant qu’humains, on les qualifie de racistes (ils le sont, les résultats). Mais l’IA, foutez-lui la paix. Elle fait ce qu’on lui demande de faire avec les bases utilisées pour son apprentissage… Elle n’a pas d’état d’âme, ou d’idéologie en son nom. Elle donne en résultat ce qu’on lui a donné à manger pour apprendre.

De là, malheureusement, pas de surprise.

Pour faire un trait d’humour sarcastique, elle accélère les mauvais résultats… !
Reste plus qu’à accélérer aussi la correction de ces mauvais résultats… Avec une autre IA ? :wink:

1 « J'aime »

Une IA vraiment intelligente, de préférence… :rofl:

1 « J'aime »