Commentaires : Aux USA, la communauté noire reste la première victime des erreurs de la reconnaissance faciale

Toutes les arrestations par erreur dues à la reconnaissance faciale par la police américaine concernent des personnes noires.

Non, cela n’a rien à voir avec la couleur des développeurs. A vous lire, cela viendrait du fait que les développeurs ne veulent utiliser que des photos de blancs pour leurs tests.
Le problème est connu depuis des années, renseignez-vous.

2 « J'aime »

Exact, le contrast entre aussi en compte dans cet algorithme.

1 « J'aime »

@bennukem , @Doomy , et @dredd : Messages supprimés; Encore un message de ce genre, et vous gagnez des vacances.

1 « J'aime »

J’ai pas compris la raison. Genre j’ai dit un truc raciste ? Il me semblait que d’après l’article c’était plutôt l’IA.

1 « J'aime »

Euh…, tu sembles penser que c’était un message à caractère raciste alors que c’est l’inverse.

Je remet en cause le BIAIS qui fait que fatalement on arrive à ce genre de raté de l’IA.Je disais que c’était conforme à ce qui était « attendu » vu comment le modèle est à la fois biaisé par ceux qui le crée et comme la problématique de la reconnaissance peaux sombres qui doit faire l’objet d’une recherche particulière avant d’être validée n’est pas prise en compte. Après le « désiré », j’avoue que je fais peut-être un peu un procès d’intention à la classe dirrigeante majoritaire et blanche étatsunienne. Mais franchement, on peut avoir le doute…

1 « J'aime »

Je ne sais pas ce qu’ils ont dit pour que leurs messages soient supprimés car je n’ai pas eu le temps de les lire, mais j’ai remarqué que les modos ici ont l’habitude de supprimer tout messages qui ne va pas dans le sens de vos convictions c’est à dire qu’ils faut être surtout anti musk, et surtout pro woke peu importe le sujet même dans l’extrême.

ici c’est flagrant que l’auteur n’a pas compris c’est un problème d 'algo qui n’a rien a voir avec le racisme. Je vous rappel que les ordinateur sont binairess, c’est des 0 et des 1, et ca vous ne pouvez rien y faire malgré vos convictions.

Quel est le rapport avec la « couleur » de peau des developeurs ? Je suis dev moi même, et en plus je suis blanc j’ai tous les défaut manifestement, du coup je suis raciste ?! Non mais sérieusement ca va trop loin là.

Pas besoin de me bannir aussi, je me casse de ce site vous avez raison ca me fera des vacances.

4 « J'aime »

Donc, pourquoi venir râler ?

Détends toi.
Tu as lu cette partie ?

C’est tout.

Bah, ouais, mais si le base de données d’entrainement contient très peu de visages de personnes noires (par rapport au nombre de personnes blanches, alors l’algo sera moins performants sur ces visages.

Bah, tiens.
Donc, en gros, il faut rien remettre en question ? Tout est parfait ?
C’est plus que lourd ce genre de sujets, la discussions st juste impossible entre ceux qui vont en profiter pour balancer des propos racistes dégueulasses, ceux qui vont râler « ouin, ouin, on ne peut plus rien dire, woke, bla bla ».

Ah et personne n’a prétendu que tu étais raciste parce que tu était blanc, hein, faut se calmer.

Avant de venir gueuler sur les gens qui prennent des positions, il faudrait d’abord lire ET comprendre les propos exprimer et pas juste foncer dans le tas parce que vos convictions sont plutôt de tel côté politique, bref.

Edit : Ah et autre chose : une fois encore, on voit en filigrane que la « liberté d’expression » défendue par certains ne doit aller que dans leur sens, encore et toujours.

2 « J'aime »

Si la reconnaissance faciale de l’iPhone ne se trompe pas plus souvent entre blancs et noirs, le problème ne vient peut-être pas de l’IA en elle-même mais de ce qu’on lui demande…

non, c’est qu’elle a été entrainée avec un visage pris en haute résolution + HDR a maximum 20 cm de l’appareil + arrière flouté et mise au point parfaite.

L’entrainement permet alors un boulot d’échantillonnage idéal, autant pour la phase d’apprentissage que pour la phase de reconnaissance.

Et quand tu as scanné ton propre visage au départ, tu as fourni l’échantillon ultime : le tiens, pleine face, pris par le même exact appareil qui fera ensuite les identifications.

là on parle de caméras de surveillance de tout type, toute distance, toute inclinaisons et souvent noir& blanc comme source, et en face un index crado, avec pour comparaison les photos des fichiers de sécu, de permis de conduire, passeports etc…
bref, trois moyens de bien avoir des problèmes de reconnaissance.

La couleur de peau des dev doit jouer, mais aussi les problèmes de contrastes avec la peau noire pour les CCTV

2 « J'aime »

Ben non, la réponse dans cet article : Pourquoi les algorithmes de reconnaissance faciale ne peuvent pas être parfaitement équitables sur tous les fronts en même temps

2 « J'aime »

@Kergariou

C’est dans l’article même que tu linkes.

N’importe quoi … certains messages ont été supprimés sur demande de l’auteur, pas spécialement par la conviction des modos.

Exact. Ceci dit le problème est en amont, c’est qu’il y a une volonté politique de ne pas utiliser trop de « diversité » pour ne pas discriminer :

1 « J'aime »