paint-brush
A tecnologia de reconhecimento facial tem uma taxa de falha preocupantemente alta em pessoas de corpor@mosesconcha
818 leituras
818 leituras

A tecnologia de reconhecimento facial tem uma taxa de falha preocupantemente alta em pessoas de cor

por Moses Concha4m2023/01/26
Read on Terminal Reader

Muito longo; Para ler

O uso recente de sistemas de reconhecimento facial na Louisiana resultou na prisão por engano de identidade de Randall Reid, um homem negro da Geórgia. As autoridades locais usaram a tecnologia de reconhecimento facial para prendê-lo por roubar bolsas de uma loja em um subúrbio de Nova Orleans – uma em um estado totalmente separado. Reid é mais um __[tendência em andamento](https://www.wired.com/story/wrongful-arrests-ai-derailed-3-mens-lives/?redirectURL=https%3A%2f%2Fwww. wired .com%2C%2A%20Facial-recognition-misidentify-jail.html
featured image - A tecnologia de reconhecimento facial tem uma taxa de falha preocupantemente alta em pessoas de cor
Moses Concha HackerNoon profile picture

O uso recente de sistemas de reconhecimento facial na Louisiana resultou na prisão por engano de identidade de Randall Reid, um homem negro da Geórgia. As autoridades locais usaram a tecnologia de reconhecimento facial para prendê-lo por roubar bolsas de uma loja em um subúrbio de Nova Orleans - uma em um estado totalmente separado que Reid afirma ter nunca uma vez foi.


Reid é mais um em uma tendência contínua de erros de identificação semelhantes de outras pessoas de cor pela tecnologia de reconhecimento facial (FRT) nos últimos anos.


Depois que a polícia em Woodbridge, Nova Jersey, teve uma identidade falsa pertencente a um suspeito de roubo avaliado por FRTs no início de 2019, Nijeer Parks, que trabalhava e morava a 30 milhas de distância em Paterson, NJ, serviu 10 dias na prisão e gastou milhares de dólares defendendo-se de um crime em que não estava envolvido. A prova de que ele enviou dinheiro para uma Western Union no momento do incidente ajudou a tirá-lo do gancho.

Michael Oliver foi injustamente acusado de tentando destruir o telefone de um professor na câmera em maio de 2019. Com base em evidências de vídeo capturadas pelo professor, Polícia de Detroit usou FRTs para vincular Michael Oliver ao crime, embora diferenças físicas óbvias observadas por seu advogado - como tatuagens no antebraço e tom de pele mais claro - o absolvessem de qualquer delito.


Em janeiro de 2020, Robert Williams passou mais de um dia inteiro na prisão depois de supostamente ser pego em vídeo roubando quase US $ 4.000 em relógios de luxo de uma loja Shinola em Detroit. Suas acusações foram retiradas dois meses depois que novas evidências revelaram que ele estava cantando no Instagram Live a 80 quilômetros de distância no momento do crime.


Esses casos são alguns dos erros de identificação mais significativos de pessoas de cor nos Estados Unidos nos últimos cinco anos. Eles servem como um reflexo direto do estado das tecnologias de reconhecimento facial e sua capacidade de discernir e diferenciar efetivamente indivíduos de cor.

Reconhecendo os problemas


A tecnologia de reconhecimento facial prospera, ou vacila, nos dados biométricos vitais – fotos de vários rostos e outras características físicas – que é dada para avaliar. O conjunto de dados que o sistema recebe é o que determina a eficácia geral do sistema como um todo.


Dito isto, esses sistemas não podem reconhecer rostos pertencentes a uma raça específica se os conjuntos de dados usados para apoiar e treinar esses sistemas contiverem dados mínimos sobre a raça em questão.


Yashar Behzadi, CEO e fundador da IA de síntese , diz: "Certos dados demográficos são frequentemente sub-representados nesses conjuntos de dados, sejam eles coletados de imagens na Internet ou outros meios convencionais. O resultado é que os dados de treinamento usados para alimentar a IA tornam-se desequilibrados, resultando em viés de modelo".


Em outras palavras, quanto menos dados biométricos houver sobre pessoas de cor, menor será a probabilidade de a tecnologia de reconhecimento facial identificar pessoas de cor com sucesso.


Até recentemente, os FRTs eram “principalmente desenvolvidos e testados em conjuntos de dados que continham a maioria de indivíduos de pele clara”, de acordo com Tatevik Baghdasaryan, profissional de marketing de conteúdo da Superanotação . Isso limita muito seu escopo de análise, gerando muito mais erros ao tentar identificar pessoas de cor em comparação com suas contrapartes de pele mais clara e bem registradas.

“Como resultado, os algoritmos usados na tecnologia de reconhecimento facial funcionam pior em pessoas com tons de pele mais escuros e características faciais específicas, como narizes mais largos e lábios mais cheios”, diz Baghdasaryan. “Isso leva a taxas mais altas de falsos positivos e falsos negativos”.


Por exemplo, um estudo histórico de 2018 de Joy Buolamwini e Timnit Gebru descobriu que muitos algoritmos responsáveis por analisar os principais recursos faciais em FRTs são conhecidos por identificar erroneamente mulheres negras. mais de 33% do tempo.

FRTs ao redor do mundo


A tecnologia de reconhecimento facial tornou-se bastante onipresente no mundo da tecnologia e agora está sendo usada por quase 100 países em todo o mundo.


Cingapura, famosa por sua nação inteligente iniciativa, não é estranho a tecnologias emergentes e tem estado consistentemente na vanguarda da inovação tecnológica nas últimas décadas.


No final de 2020, a Smart Nation adicionou um recurso de reconhecimento facial ao SingPass, o principal sistema de autenticação pessoal do país, onde os usuários podem acessar vários serviços governamentais online. Desde então, Cingapura também instalou quiosques de autoatendimento em todo o país que empregam FRTs em um esforço para tornar o acesso aos serviços públicos o mais conveniente e contínuo possível.


No entanto, embora o uso de tecnologias de reconhecimento facial tenha se tornado amplamente aceito, ainda resta um punhado de países que limitam seu uso ou, em alguns casos, os recusam abertamente. Países como Bélgica e Luxemburgo enquadram-se na última categoria, optando por proibir totalmente as FRTs, com outros países europeus começando a seguir o exemplo.


A Argentina serve como um exemplo único; um país que, a princípio, adotou a tecnologia de braços abertos e depois mudou sua postura sobre a polêmica tecnologia em resposta a uma série de erros de identificação que levaram à detenção indevida de várias pessoas.

O que pode ser feito?


Atualmente, ficou claro que os maiores problemas da tecnologia de reconhecimento facial decorrem da qualidade e do tipo de dados que seus sistemas recebem.


Se os dados do sistema não forem representativos de um conjunto diversificado de dados demográficos – incluindo apenas dados para pessoas com pele mais clara, por exemplo – ou a qualidade das imagens avaliadas pelo sistema for ruim – embaçadas, mal iluminadas, tiradas de ângulos não ideais etc. .- erros como falsos positivos em pessoas de cor tornam-se muito mais prováveis de ocorrer.


Assim, a solução mais simples para esse problema de longa data com FRTs é incorporar maiores volumes de dados que representam aqueles com uma variedade de tons de pele e características faciais.


Se nós, como povo, devemos confiar e contar com essa tecnologia para nos ajudar em questões de justiça igualitária e justa, o mínimo que podemos fazer é aprender mais sobre os principais problemas do reconhecimento facial e como eles afetam sua capacidade de identificar adequadamente pessoas de cor.