L'utilisation récente de systèmes de reconnaissance faciale en Louisiane a entraîné l'arrestation pour erreur d'identité de Randall Reid, un homme noir de Géorgie. Les autorités locales ont utilisé la technologie de reconnaissance faciale pour l'épingler pour avoir volé des sacs à main dans un magasin d'une banlieue de la Nouvelle-Orléans – un dans un État entièrement séparé que Reid prétend avoir
Reid est encore un autre dans un
Après que la police de Woodbridge, dans le New Jersey, eut une fausse carte d'identité appartenant à un voleur à l'étalage présumé évalué par les FRT au début de 2019, Nijeer Parks, qui travaillait et vivait à 30 miles de là à Paterson, NJ, a servi
Michael Oliver a été accusé à tort d'avoir
En janvier 2020, Robert Williams a passé plus d'une journée entière en prison après avoir été filmé en train de voler près de 4 000 $ de montres de luxe dans un magasin Shinola à Detroit. Ses accusations ont été abandonnées deux mois après que de nouvelles preuves ont révélé qu'il chantait sur Instagram Live à 50 miles de là au moment du crime.
Ces cas font partie des erreurs d'identification majeures les plus importantes des personnes de couleur aux États-Unis au cours des cinq dernières années. Ils servent de reflet direct de l'état des technologies de reconnaissance faciale et de leur capacité à discerner et différencier efficacement les individus de couleur.
La technologie de reconnaissance faciale prospère, ou vacille, sur les données biométriques vitales - photos de différents visages et autres caractéristiques physiques - qu'elle est amenée à évaluer. L'ensemble de données que le système reçoit est ce qui détermine en fin de compte l'efficacité globale du système dans son ensemble.
Cela dit, ces systèmes ne peuvent pas reconnaître les visages appartenant à ceux d'une race spécifique si les ensembles de données utilisés pour soutenir et entraîner ces systèmes contiennent un minimum de données sur la race en question.
Yashar Behzadi, PDG et fondateur de
En d'autres termes, moins il y a de données biométriques sur les personnes de couleur, moins la technologie de reconnaissance faciale est susceptible d'identifier avec succès les personnes de couleur.
Jusqu'à récemment, les FRT étaient "principalement développées et testées sur des ensembles de données contenant une majorité d'individus à la peau claire", selon Tatevik Baghdasaryan, Content Marketer chez
"En conséquence, les algorithmes utilisés dans la technologie de reconnaissance faciale fonctionnent moins bien sur les personnes ayant des tons de peau plus foncés et des caractéristiques faciales spécifiques telles que des nez plus larges et des lèvres plus pulpeuses", explique Baghdasaryan. "Cela conduit à des taux plus élevés de faux positifs et de faux négatifs."
Par exemple, une étude historique réalisée en 2018 par Joy Buolamwini et Timnit Gebru a révélé que de nombreux algorithmes responsables de l'analyse des principaux traits du visage dans les FRT sont connus pour mal identifier les femmes noires.
La technologie de reconnaissance faciale est devenue assez omniprésente dans le monde de la technologie et est maintenant utilisée par près de 100 pays à travers le monde.
Singapour, connue pour sa
Fin 2020, Smart Nation a ajouté un
Cependant, si l'utilisation des technologies de reconnaissance faciale est devenue largement acceptée, il reste encore une poignée de pays qui limitent leur utilisation ou, dans certains cas, les refusent carrément. Des pays comme la Belgique et le Luxembourg entrent dans cette dernière catégorie, optant pour l'interdiction complète des FRT, avec
L'Argentine est un exemple unique ; un pays qui, au début, a adopté la technologie à bras ouverts, puis plus tard
Actuellement, il est devenu clair que les plus gros problèmes de la technologie de reconnaissance faciale proviennent de la qualité et du type de données que ses systèmes reçoivent.
Si les données du système ne sont pas représentatives d'un ensemble diversifié de données démographiques - n'incluant que les données pour les personnes à la peau plus claire, par exemple - ou si la qualité des images évaluées par le système est médiocre - floues, faiblement éclairées, prises sous des angles non optimaux, etc. .– Les erreurs comme les faux positifs chez les personnes de couleur deviennent beaucoup plus susceptibles de se produire.
Ainsi, la solution la plus simple à ce problème de longue date avec les FRT est d'incorporer des volumes plus élevés de données qui représentent ceux qui ont une variété de tons de peau et de traits du visage.
Si nous, en tant que peuple, devons faire confiance et compter sur cette technologie pour nous aider dans les affaires d'une justice équitable et équitable, le moins que nous puissions faire est d'en savoir plus sur les problèmes fondamentaux de la reconnaissance faciale et sur la manière dont ils affectent sa capacité à identifier correctement les personnes de Couleur.