paint-brush
Encontrando rostos gerados por IA na natureza: resumo e introduçãopor@botbeat

Encontrando rostos gerados por IA na natureza: resumo e introdução

Muito longo; Para ler

A IA pode criar rostos falsos realistas para golpes online. Este trabalho propõe um método para detectar rostos gerados por IA em imagens.
featured image - Encontrando rostos gerados por IA na natureza: resumo e introdução
BotBeat.Tech: Trusted Generative AI Research Firm HackerNoon profile picture
0-item

Autores:

(1) Gonzalo J. Aniano Porcile, LinkedIn;

(2) Jack Gindi, LinkedIn;

(3) Shivansh Mundra, LinkedIn;

(4) James R. Verbus, LinkedIn;

(5) Hany Farid, LinkedIn e Universidade da Califórnia, Berkeley.

Tabela de links

Abstrato

A geração de imagens baseadas em IA continuou a melhorar rapidamente, produzindo imagens cada vez mais realistas com menos falhas visuais óbvias. Imagens geradas por IA estão sendo usadas para criar perfis online falsos que, por sua vez, são usados para campanhas de spam, fraude e desinformação. Como o problema geral de detecção de qualquer tipo de conteúdo manipulado ou sintetizado está recebendo cada vez mais atenção, aqui nos concentramos em uma tarefa mais restrita de distinguir um rosto real de um rosto gerado por IA. Isto é particularmente aplicável ao lidar com contas online não autênticas com uma foto de perfil de usuário falsa. Mostramos que, ao focar apenas em rostos, um artefato mais resiliente e de uso geral pode ser detectado, permitindo a detecção de rostos gerados por IA a partir de uma variedade de mecanismos de síntese baseados em GAN e difusão, e em resoluções de imagem (tão baixas como 128 × 128 pixels) e qualidades.

1. Introdução

As últimas três décadas testemunharam avanços notáveis na modelagem estatística de imagens naturais. O modelo espectral de potência mais simples [20] captura a queda de magnitude de frequência 1/ω típica de imagens naturais, Figura 1 (a). Como este modelo não incorpora nenhuma informação de fase, ele é incapaz de capturar informações estruturais detalhadas. No início de 2000, novos modelos estatísticos foram capazes de capturar as estatísticas naturais tanto de magnitude quanto de (alguma) fase [25], levando a avanços na modelagem de padrões básicos de textura, Figura 1 (b).


Embora sejam capazes de capturar padrões repetidos, esses modelos não são capazes de capturar as propriedades geométricas de objetos, rostos ou cenas complexas. A partir de 2017, e alimentados por grandes conjuntos de dados de imagens naturais, avanços no aprendizado profundo e poderosos clusters de GPU, modelos generativos começaram a capturar propriedades detalhadas de rostos e objetos humanos [16, 18]. Treinadas em um grande número de imagens de uma única categoria (rostos, carros, gatos, etc.), essas redes adversárias generativas (GANs) capturam propriedades altamente detalhadas


Figura 1. A evolução dos modelos estatísticos de imagens naturais: (a) um padrão fractal com espectro de potência 1/ω; (b) um padrão têxtil sintetizado [25]; (c) uma face gerada por GAN [17]; e (d) uma cena gerada por difusão com a sugestão “um apicultor pintando um autorretrato” [1].


de, por exemplo, faces, Figura 1(c), mas são restritos a apenas uma única categoria. Mais recentemente, modelos baseados em difusão [2,26] combinaram modelos de imagens generativas com prompts linguísticos, permitindo a síntese de imagens a partir de prompts de texto descritivos, como “um apicultor pintando um autorretrato”, Figura 1 (d).


Tradicionalmente, o desenvolvimento de modelos de imagens generativas era impulsionado por dois objetivos principais: (1) compreender as propriedades estatísticas fundamentais das imagens naturais; e (2) usar as imagens sintetizadas resultantes para tudo, desde renderização de gráficos computacionais até psicofísica humana e aumento de dados em tarefas clássicas de visão computacional. Hoje, no entanto, a IA generativa encontrou casos de utilização mais nefastos, que vão desde spam a fraude e combustível adicional para campanhas de desinformação.


A detecção de imagens manipuladas ou sintetizadas é particularmente desafiadora quando se trabalha em redes de grande escala com centenas de milhões de usuários. Este desafio torna-se ainda mais significativo quando o utilizador médio se esforça para distinguir um rosto real de um falso [24]. Como estamos preocupados com o uso de IA generativa na criação de contas de usuários on-line falsas, procuramos desenvolver técnicas rápidas e confiáveis que possam distinguir rostos reais daqueles gerados por IA. Em seguida, colocamos nosso trabalho no contexto de técnicas relacionadas.

1.1. Trabalho relatado

Como nos concentraremos especificamente em rostos gerados por IA, revisaremos trabalhos relacionados também focados ou aplicáveis a distinguir rostos reais de falsos. Existem duas grandes categorias de abordagens para detectar conteúdo gerado por IA [10].


Na primeira, abordagens baseadas em hipóteses, artefatos específicos em rostos gerados por IA são explorados, como inconsistências na simetria facial bilateral na forma de reflexos da córnea [13] e formato da pupila [15], ou inconsistências na pose da cabeça e no layout espacial. de características faciais (olhos, ponta do nariz, cantos da boca, queixo, etc.) [23, 33, 34]. O benefício dessas abordagens é que elas aprendem anomalias explícitas em nível semântico. A desvantagem é que, com o tempo, os mecanismos de síntese parecem estar – implícita ou explicitamente – corrigindo esses artefatos. Outros artefatos não específicos da face incluem frequência espacial ou anomalias de ruído [5,8,12,21,35], mas esses artefatos tendem a ser vulneráveis a ataques simples de lavagem (por exemplo, transcodificação, ruído aditivo, redimensionamento de imagem).


Na segunda, abordagens baseadas em dados, o aprendizado de máquina é usado para aprender como distinguir entre imagens reais e imagens geradas por IA [11, 29, 32]. Esses modelos geralmente apresentam bom desempenho ao analisar imagens consistentes com seu treinamento, mas depois enfrentam dificuldades com imagens fora de domínio e/ou são vulneráveis a ataques de lavagem porque o modelo se prende a artefatos de baixo nível [9].


Tentamos aproveitar o melhor de ambas as abordagens. Ao treinar nosso modelo em uma variedade de mecanismos de síntese (GAN e difusão), procuramos evitar o apego a um artefato específico de baixo nível que não generaliza ou pode ser vulnerável a simples ataques de lavagem de dinheiro. Ao nos concentrarmos apenas na detecção de rostos gerados por IA (e não em imagens sintéticas arbitrárias), mostramos que nosso modelo parece ter capturado um artefato de nível semântico distinto dos rostos gerados por IA, o que é altamente desejável para nossa aplicação específica de localização de usuários potencialmente fraudulentos. contas. Também mostramos que nosso modelo é resiliente à detecção de rostos gerados por IA não vistos anteriormente em treinamento e é resiliente em uma ampla gama de resoluções e qualidades de imagem.


Tabela 1. Análise do número de imagens reais e geradas por IA usadas em nosso treinamento e avaliação (ver também Figura 2).


Este artigo está disponível no arxiv sob licença CC 4.0.