No final do ano passado, depois de enfrentar anos de críticas por suas práticas, o Facebook anunciou uma mudança em seu sistema multibilionário de publicidade : as empresas que compram anúncios não poderão mais segmentar pessoas com base em categorias de interesse como raça, religião, condições de saúde, política, ou orientação sexual.
Mais de três meses depois que a mudança supostamente entrou em vigor, no entanto, The Markup descobriu que essa segmentação de anúncios ainda está disponível na plataforma do Facebook.
Algumas categorias óbvias de anúncios foram realmente removidas, como “jovens conservadores”, “Rachel Maddow”, “cultura hispânica” e “hinduísmo” – todas as categorias que encontramos como opções na plataforma no início de janeiro, mas que desapareceram desde então.
No entanto, outras proxies óbvias para raça, religião, condições de saúde e orientação sexual permanecem.
Já em 2018, o CEO Mark Zuckerberg disse ao Congresso que a empresa havia “removido a capacidade de excluir grupos étnicos e outras categorias sensíveis da segmentação de anúncios. Portanto, esse recurso não está mais disponível.”
O Markup descobriu, no entanto, que enquanto a “cultura hispânica” foi removida, por exemplo, a “língua espanhola” não foi.
"Tea Party Patriots" foi removido, mas "Tea party" e "The Tea Party" ainda estavam disponíveis. “Igualdade social” e “Justiça social” desapareceram, mas os anunciantes ainda podem segmentar “Movimento social” e “Mudança social”.
A Starbucks, por exemplo, ainda conseguiu usar as opções existentes após a mudança para colocar um anúncio de seu latte de pistache focado em usuários interessados em “R&B contemporâneo”, “telenovela”, “língua espanhola” e “K-pop”, todos proxies para o público negro, latino e asiático no Facebook.
O Facebook não explicou como determina quais opções de publicidade são “sensíveis” e, em resposta a perguntas do The Markup, recusou-se a detalhar como faz essas determinações.
Mas nos dias após o The Markup entrar em contato com o Facebook para comentar, várias outras opções de segmentação de anúncios potencialmente sensíveis que sinalizamos foram removidas pela empresa.
“A remoção de opções de segmentação sensíveis é um processo contínuo e revisamos constantemente as opções disponíveis para garantir que correspondam à expectativa crescente das pessoas sobre como os anunciantes podem alcançá-los em nossa plataforma”, disse Dale Hogan, porta-voz da Meta, empresa controladora do Facebook, em um comunicado. declaração.
“Se descobrirmos opções adicionais que consideramos sensíveis, iremos removê-las.”
O sistema de direcionamento de anúncios do Facebook é a chave não tão secreta para o enorme sucesso financeiro da empresa. Ao rastrear os interesses dos usuários on-line, a empresa promete, os anunciantes podem encontrar as pessoas com maior probabilidade de pagar por seus produtos e serviços e exibir anúncios diretamente para elas.
Mas a empresa enfrentou uma reação negativa por oferecer aos anunciantes categorias de “interesse” que falam de detalhes mais fundamentais – e às vezes altamente pessoais – sobre um usuário.
Esses interesses podem ser usados de maneiras surpreendentes para discriminar, desde a exclusão de pessoas de cor dos anúncios imobiliários até o fomento da polarização política e o rastreamento de usuários com doenças específicas .
É óbvio para todos que estão no campo que [remover um punhado de termos considerados sensíveis] não é uma solução completa.
Aleksandra Korolova, Universidade do Sul da Califórnia
Os críticos do Facebook dizem que a empresa teve ampla oportunidade de corrigir os problemas com seu sistema de publicidade, e tentar reparar a plataforma removendo termos "sensíveis" individuais mascara um problema subjacente: a plataforma da empresa pode simplesmente ser muito grande e difícil de manejar sem mais mudanças fundamentais.
Remover um punhado de termos considerados sensíveis não é suficiente, de acordo com Aleksandra Korolova, professora assistente de ciência da computação na University of Southern California.
“É óbvio para todos que estão no campo que não é uma solução completa”, disse ela.
O Markup reuniu uma lista de termos potencialmente sensíveis a partir do final de outubro, antes que o Facebook removesse quaisquer opções de segmentação de interesse. Os dados foram coletados por meio do Citizen Browser , um projeto no qual The Markup recebe dados do Facebook de um painel nacional de usuários do Facebook.
Também reunimos uma lista de termos que as ferramentas do Facebook recomendavam aos anunciantes quando eles inseriam um termo potencialmente sensível – a empresa sugeria “BET” e “Essence (revista)” quando os anunciantes pesquisavam por “cultura afro-americana”, por exemplo.
Em seguida, também usando as ferramentas do Facebook, calculamos a semelhança dos termos com as sugestões deles, visualizando quantos usuários os anúncios deveriam atingir, o que o Facebook chama de “público”. (Veja os detalhes de nossa análise no Github .)
Para encontrar as lacunas no processo de limpeza do Facebook, pesquisamos esses termos novamente nas ferramentas de publicidade pública do Facebook no final de janeiro para ver quais deles a empresa havia removido após a mudança.
Em alguns casos, descobrimos que as opções ainda disponíveis atingiram quase exatamente os mesmos usuários das opções que foram removidas. “BET”, a sigla para Black Entertainment Television, foi removido, mas “BET Hip Hop Awards”, que anteriormente era recomendado com BET e tinha uma sobreposição de 99% no público, ainda estava disponível.
O “orgulho gay” também foi removido como uma opção, mas usando o termo “RuPaul's Drag Race”, os anunciantes ainda podem alcançar mais de 13 milhões dos mesmos usuários.
Esses proxies não estavam apenas teoricamente disponíveis para anunciantes no Facebook. O Markup encontrou empresas que os usam ativamente para direcionar anúncios para pessoas na rede social.
Usando o Citizen Browser , encontramos vários exemplos de proxies para raça e afiliação política usados para segmentação.
Ancestry, o serviço de genealogia, por exemplo, segmentou anúncios usando os termos “telenovela”, “BET Hip Hop Awards”, “cultura africana” e “Afrobeat”.
O Facebook removeu o “Fox News Channel” como uma opção de segmentação que poderia atingir usuários conservadores, mas vimos o site de sátira conservador The Babylon Bee segmentando um anúncio ridicularizando Anthony Fauci usando a categoria de interesse ainda disponível “Judge Jeanine Piro”, uma Fox Personalidade da notícia.
Antes da remoção do canal Fox News, descobrimos que 86% dos usuários marcados com interesse na juíza Jeanine Piro também tinham interesse na rede de notícias a cabo.
O Facebook também falhou em eliminar totalmente a segmentação com base em condições médicas, descobrimos. “Autism Awareness” foi removido, mas “Epidemiology of autism” ainda estava disponível.
“Conscientização sobre diabetes mellitus” foi removido, mas o intimamente relacionado “Substituto do açúcar” não foi. Encontramos um anúncio da Medtronic, uma empresa de dispositivos médicos, usando esse termo para promover uma caneta de insulina para controle de diabetes no Facebook.
Até o próprio Facebook já usou os proxies. Encontramos um anúncio colocado pela empresa promovendo seus grupos para usuários interessados em “Vibe (revista)”, um substituto para termos removidos que visam o público negro.
Starbucks, Ancestry e Babylon Bee não responderam aos pedidos de comentários sobre suas práticas de direcionamento de anúncios.
Pamela Reese, porta-voz da Medtronic, disse que a empresa parou de usar o “substituto do açúcar” como uma opção de segmentação e que a Medtronic está “bem dentro” dos regulamentos da FDA para publicidade de dispositivos médicos.
A Markup forneceu vários exemplos desses possíveis termos de proxy para o Facebook, incluindo “telenovela”, “BET Hip Hop Awards”, “RuPaul's Drag Race” e “Judge Jeanine Piro”. Eles foram discretamente removidos depois que nosso pedido de comentário foi enviado.
Críticos do Facebook, como Korolova, dizem que o Facebook tem um histórico de prometer implementar mudanças significativas em sua plataforma de publicidade, apenas para não cumprir a promessa.
Pesquisas mostram problemas com “proxies” de publicidade há anos, e o Facebook poderia ter tomado medidas mais fortes para corrigir os problemas, argumenta ela.
“Se eles quisessem, poderiam fazer melhor”, disse Korolova.
O Facebook diz que suas mudanças recentes foram necessárias para evitar abusos, mas algumas organizações que dizem usar o Facebook para o bem social reclamaram que as novas políticas colocam barreiras ao seu trabalho.
Ativistas climáticos e pesquisadores médicos reclamaram que as mudanças limitaram sua capacidade de atingir um público relevante.
Daniel Carr, consultor de recrutamento do SMASH Labs, um grupo de pesquisa médica que usa o Facebook para recrutar homens gays e bissexuais para estudos, disse que as mudanças recentes os forçaram a mudar de termos como “cultura LGBT” para referências da cultura pop como “RuPaul's Drag Race .” Carr disse que o recrutamento para o estudo foi constante, mas a mudança não os agradou.
“Isso tornou as coisas mais complicadas do nosso lado e, na verdade, não mudou nada, exceto que o Facebook agora pode dizer: 'Não permitimos que você seja alvo dessas coisas'”, disse Carr. “É um movimento político, se alguma coisa.”
Por Angie Waller e Colin Lecher
Também publicado aqui
Foto de Dima Solomin no Unsplash