Commentaires : Reconnaissance faciale : un taux d'erreur de 81% pour le système de la police britannique

Un rapport universitaire égratigne la technologie de reconnaissance faciale de la police métropolitaine anglaise, dont la vue est encore un peu floue.

Donc si je comprend bien cette technologie est fiable tant que l’on ne lui demande rien ? Quelque part, c’est assez cohérent…

ils s’améliorent avec le temps, 100% d’erreurs au départ, 96% d’erreurs et là 81%, va encore falloir y travailler pas contre :wink:
Après je me dis qu’il doit y avoir confirmation visuelle humaine avant verif sur le terrain et que ceux qui vérifient doivent aussi se planter s’ils vont jusqu’à demander les papiers de ces personnes, et donc que cela fait aussi bien qu’un humain (mais ca manque d’info sur la méthode employée donc je vais peut être un peu vite)
(commentaire sur la technique et non sur l’aspect surveillance/liberté de ce système)

Le seul vrai problème, c’est effectivement le consentement “tacite” un peu limite.
Pour le taux d’erreur, je n’ai pas lu le rapport mais si l’article ne déforme pas, les scientifiques sont un biaisés à la Facebook: ils donnent une information sensationnelle . Le 81% d’“erreurs” sont des faux positifs (personnes identifiées alors que ce n’est pas la bonne) alors que le système est conçu pour éviter les faux négatifs (personne non identifiée alors qu’il le faudrait), seul chose importante bien sur, l’identification finale formelle étant effectuée par des humains.

Il faut effectivement faire la distinction, mais les faux positifs ont forcement des conséquences (à minima, ils génèrent une perte de temps).

Je n’ai pas dit qu’il ne fallait pas les minimiser (même si il est déjà correct je trouve avec 0.1% de faux négatifs) mais que le critère principal est le pré-tri pour automatiser une partie du travail.

“avec 0.1% de faux négatifs” ==> probablement moins (enfin je le comprends comme toutes erreurs confondues).