Os deepfakes têm aumentado nos últimos anos, com múltiplas ferramentas de troca de rosto ganhando popularidade entre fraudadores e até mesmo grupos criminosos organizados.
De acordo com o relatório da Europol “
No entanto, como acontece com tudo relacionado à IA, há sempre uma corrida armamentista entre fraudadores e detectores modernos de deepfake. Saindo da Semana Internacional de Conscientização sobre Fraude, queríamos fornecer uma verificação da realidade sobre as capacidades e avanços dos detectores de deepfake nos últimos anos - uma verificação da realidade necessária apenas devido ao quão vasto é o problema da fraude deepfake.
Em nossa pesquisa interna, analisamos o desempenho de detectores deepfake modernos e de código aberto publicados desde 2020.
Aqui está nossa observação fundamental: quando se trata de distinguir entre conteúdo real e falso, os computadores há muito superam os humanos. Esta descoberta sublinha a necessidade de aproveitar o poder dos algoritmos e métodos de ponta.
Quase todos os principais trabalhos neste campo apresentam com destaque a detecção de rostos como um elemento fundamental de seus algoritmos. A detecção de rosto é uma solução próxima, caracterizada por alta precisão – não perfeita, mas próxima.
Quando um rosto está posicionado de forma proeminente em uma imagem e olha para frente, os modelos modernos de detecção se destacam na identificação rápida e confiável.
E embora existam várias maneiras de criar imagens deepfake, um método se destaca como popular e robusto: a troca de rosto em uma única ação. Esta técnica utiliza duas imagens, uma fonte e um alvo, para transferir características faciais da primeira para a segunda.
No cenário atual, é considerada a abordagem mais poderosa para a criação de imagens e vídeos deepfake.
Você pode experimentar o nosso
A falta de código e pesos prontamente disponíveis na maioria dos trabalhos relacionados ressalta um desafio comum no campo da detecção de deepfakes.
Este cenário dá muitas vezes prioridade às aplicações empresariais em detrimento da divulgação científica, resultando num acesso limitado às ferramentas e recursos que são essenciais para as comunidades académicas e de investigação.
Essa falta de código e pesos de modelo compartilhados abertamente tem sido uma barreira significativa para o avanço mais amplo dos métodos de detecção de deepfake.
Existem inúmeras abordagens para a detecção de deepfakes e, a cada conferência, novos artigos aparecem.
Alguns desses artigos concentram-se principalmente na arquitetura do modelo para detecção de deepfake, inspirando-se consideravelmente no modelo do transformador e tentando adaptá-lo ao desafio.
Enquanto isso, outros artigos concentram-se em métodos de treinamento, particularmente em conjuntos de dados sintéticos cheios de imagens falsas. O campo é rico em benchmarks e, na seção a seguir, discutiremos alguns dos mais poderosos entre eles, enfatizando aqueles com código-fonte aberto e pesos disponíveis.
A linha de base mais proeminente para todos os métodos modernos de detecção de deepfakes é a pesquisa publicada no artigo
Eles usaram observadores humanos para validar essas distinções. O modelo de classificação deepfake no artigo é um sistema binário baseado em um backbone XceptionNet com pesos ImageNet, ajustados em seu conjunto de dados.
Ao empregar um mecanismo de votação simples baseado nas respostas do modelo, os autores alcançaram um impacto significativo no campo da detecção de deepfakes, apesar da simplicidade arquitetônica do modelo.
Os autores destacam um problema comum em modelos anteriores de detecção de deepfake, caracterizados principalmente por sua dependência de uma abordagem simples de classificador binário.
A abordagem básica do classificador binário que não leva em conta distinções sutis entre imagens reais e falsas. Os autores aqui propõem uma alternativa inspirada na classificação refinada, usando uma rede multi-atenção com múltiplas cabeças de atenção para focar em diferentes regiões de artefatos.
Esta rede combina recursos de textura de baixo nível e recursos semânticos de alto nível para criar representações de imagens e um mecanismo distinto de aumento de dados guiado pela atenção para treinamento.
Esta abordagem aborda as limitações dos modelos existentes, tornando-a um método promissor para detecção de deepfakes.
Os autores de "M2TR:
Eles introduzem uma abordagem multimodal com uma estrutura multiescala, usando um filtro de frequência para detectar artefatos que podem não ser visíveis após a compressão.
Eles ainda empregam um bloco de fusão entre modalidades inspirado na autoatenção para mesclar recursos RGB e de frequência em uma representação unificada, aprimorando seu método de detecção de deepfake.
Em "
Eles propõem uma abordagem baseada em dois componentes: aprendizagem de reconstrução e aprendizagem de classificação:
A aprendizagem de classificação identifica disparidades entre imagens reais e falsas.
Os autores empregam uma abordagem multiescala para melhorar essas representações, usando uma rede de reconstrução dedicada para modelar faces reais e uma perda de aprendizagem métrica para melhorar a detecção de padrões de falsificação anteriormente desconhecidos.
No trabalho, "
Esses modelos tendem a lembrar as distribuições de IDs genuínos, o que significa que uma imagem falsa às vezes pode aparecer como uma mistura de dois IDs diferentes. No entanto, este problema torna-se especialmente desafiador quando se tenta aplicar estes modelos a conjuntos de dados novos, não vistos ou cruzados. Nestes casos, o modelo luta para decifrar a verdadeira identidade da imagem porque não a encontrou antes.
Para resolver este problema, que os autores chamam de “vazamento implícito de identidade”, eles se esforçam para encontrar soluções que melhorem a generalização de modelos de detecção de deepfake além dos limites de seus conjuntos de dados de treinamento.
Para fornecer evidências desse fenômeno, os autores inicialmente pegaram classificadores deepfake pré-treinados e congelaram todas as camadas, exceto a última. Eles substituíram a última camada por uma camada linear e a ajustaram para uma tarefa de classificação de ID.
Este experimento mostrou que uma única camada linear poderia ser efetivamente treinada para classificar IDs com alta precisão, demonstrando o potencial de vazamento de identidade. Em seguida, os autores criaram um novo método para trocar partes do rosto em diferentes escalas, com foco principal na troca de regiões faciais específicas.
Eles então treinaram um modelo de detecção em múltiplas escalas utilizando imagens geradas a partir desse processo. Este modelo examina mapas de recursos de diferentes tamanhos em diversas camadas para detectar a existência de áreas de artefatos, proporcionando uma observação completa dos prováveis sinais de manipulação de deepfake.
O último artigo notável no campo da detecção de deepfake é "
Este conjunto de dados consiste em imagens geradas através da combinação de imagens pseudo-fonte e alvo derivadas de imagens originais individuais. Este processo replica efetivamente artefatos de falsificação comuns frequentemente encontrados em deepfakes.
O principal insight por trás dessa abordagem é que, ao usar amostras falsas mais gerais e menos facilmente reconhecíveis, os classificadores podem aprender representações mais genéricas e robustas sem sucumbir ao ajuste excessivo a artefatos específicos de manipulação.
Os autores identificam quatro tipos principais de artefatos deepfake comuns: incompatibilidade de pontos de referência, limites de mesclagem, incompatibilidade de cores e inconsistência de frequência. Eles então sintetizam esses artefatos usando um modelo especializado.
Para a arquitetura do modelo, os autores utilizaram o EfficientNet-b4, pré-treinado no conjunto de dados ImageNet. Eles ajustam esse modelo em seu conjunto de dados de imagens autocombinadas (SBI), garantindo que o modelo se torne adepto da detecção de deepfakes, aprendendo com essas imagens combinadas com artefatos de falsificação comuns.
Analisamos o desempenho de detectores deepfake modernos e de última geração que foram publicados após 2020 e têm seus códigos e pesos de modelo disponíveis para uso público e de pesquisa.
Calculamos métricas relevantes para cada modelo nos mesmos conjuntos de dados públicos para ver como as qualidades divulgadas pelos autores são transferidas para um conjunto de dados semelhante. Em seguida, aplicamos transformações simples que são frequentemente usadas por fraudadores para contornar a verificação (como troca de rosto) e vimos a eficiência do desempenho dos detectores de deepfake.
Nós costumavamos
Para apresentar conjuntos de dados de imagens falsas verdadeiros, usamos um estado da arte
Para gerar uma quantidade suficiente de imagens, usamos pares aleatórios de fotos de origem e de referência do conjunto de dados para criar Fake-Celeba-HQ e Fake-LFW. Cada conjunto de dados contém exatamente 10.000 imagens.
Para simplificar, utilizamos como principal métrica para medir a qualidade dos modelos a precisão de 1 classe com limite padrão de 0,5. Em outras palavras, para cada conjunto de dados, calculamos a porcentagem de rótulos acertados. Além disso, calculamos uma métrica ROC-AUC total sobre conjuntos de dados reais e falsos combinados.
LFW | CelebaHQ | Falso-LFW | Fake-CelebaHQ | Pontuação AUC | |
---|---|---|---|---|---|
SBI | 0,82 | 0,57 | 0,82 | 0,96 | 0,84 |
CADDM | 0,49 | 0,69 | 0,80 | 0,54 | 0,67 |
RECCE | 0,01 | 0,00 | 0,98 | 0,00 | 0,54 |
ESTEIRA | 0,00 | 0,74 | 1. | 1. | 0,75 |
FF++ | 0,13 | 0,67 | 0,88 | 0,53 | 0,57 |
M2TR | 0,42 | 0,56 | 0,69 | 0,51 | 0,56 |
Tabela 1. Precisão de 1 classe e AUC para conjuntos de dados reais/falsos sem alterações
Como esperado, a maioria dos modelos teve alguns problemas na detecção de deepfakes SimSwap. O melhor modelo é o SBI, com pontuação de 82% e 96%, mostrando uma pontuação AUC promissora de 0,84.
O que é inesperado é que existem muitos modelos capazes que tiveram dificuldades em classificar imagens de conjuntos de dados reais como reais:
MAT, FF e M2TR pontuaram menos da metade dos rostos do LFW como deepfakes.
Existem 3 modelos que apresentam uma pontuação AUC próxima de 0,5. Isto levanta questões sobre a transferibilidade destes modelos para um domínio mais realista e como podem ser facilmente contornados por fraudadores.
Para testar como esses modelos se comportam em um domínio mais realista, tentaremos duas técnicas diferentes que os fraudadores geralmente exploram ao usar deepfakes.
A primeira coisa que fazem para esconder a maioria dos artefatos e irregularidades é reduzir a escala. Como na maioria das verificações de liveness e deepfake não há requisitos quanto à qualidade do vídeo, os fraudadores geralmente compactam vídeos deepfaked.
Para simular esta abordagem, usaremos os mesmos conjuntos de dados, mas comprimiremos cada imagem para uma resolução muito menor (128x128) usando um algoritmo bilinear. Idealmente, os detectores de deepfake devem ser capazes de detectar deepfakes mesmo que a resolução das imagens na inferência seja diferente da resolução durante o processo de treinamento.
LFW | CelebaHQ | Falso-LFW | Fake-CelebaHQ | Pontuação AUC | |
---|---|---|---|---|---|
SBI | 0,82 | 0,82 | 0,43 | 0,23 | 0,6 |
CADDM | 0,55 | 0,46 | 0,62 | 0,65 | 0,6 |
RECCE | 0,83 | 0,89 | 0,13 | 0,08 | 0,54 |
TAPETE c40 | 1. | 1. | 0. | 0. | 0,5 |
Figura 2: Melhores métricas dos detectores deepfake em um conjunto de dados de baixa qualidade
Aqui, os resultados são mais do que confusos. Os modelos que alcançavam desempenho mais ou menos competitivo agora têm precisão quase zero em conjuntos de dados falsos. Pode-se ver que o modelo MAT simplesmente classificou tudo como uma imagem real, e o modelo RECCE está muito próximo da mesma decisão.
A segunda prática de fraude é aumentar a escala da imagem para retocar imagens deepfaked para remover todas as imperfeições que poderiam “entregar” imagens fabricadas aos detectores. Um dos muitos exemplos são os olhos: não há pupilas redondas ou refrações de luz na maioria das imagens deepfaked.
Assim, um fraudador geralmente usa algum software específico de embelezamento ou “aprimoramento” semelhante aos usados no Instagram ou TikTok para mascarar todas as impurezas.
Para simular os efeitos de tal software, usamos seus softwares intimamente relacionados
LFW | CelebaHQ | Falso-LFW | Fake-CelebaHQ | Pontuação AUC | |
---|---|---|---|---|---|
SBI | 0,76 | 0,63 | 0,38 | 0,58 | 0,62 |
CADDM | 0,52 | 0,71 | 0,59 | 0,38 | 0,57 |
RECCE | 0,18 | 0. | 0,8 | 1. | 0,52 |
TAPETE c40 | 0,99 | 1. | 0. | 0. | 0,5 |
Figura 3: Melhores métricas dos detectores deepfake em um conjunto de dados aprimorado
Aqui, pode-se ver a mesma tendência do Experimento 2. O modelo MAT classificou tudo como real e o RECCE classificou tudo como falso. O desempenho do SBI e do CADDM é melhor que o aleatório, mas eles perderam mais da metade dos deepfakes nos conjuntos de dados Fake-LFW e Fake-CELEBA-HQ.
O resultado desta investigação é sombrio, uma vez que não existem detectores de deepfake de código aberto que sejam 100% seguros, enquanto se espera que a fraude de deepfake se desenvolva ainda mais, à medida que a sua geração se torna mais fácil e barata. De acordo com as estatísticas internas da Sumsub, a prevalência de fraudes deepfake cresceu consideravelmente de 2022 até o primeiro trimestre de 2023:
Nossos experimentos mostram que ainda há muito a ser feito em relação à detecção de deepfakes. Mesmo os melhores modelos de detecção de deepfake de código aberto não estão preparados para o mundo real e não podem combater os fraudadores.
Há um grande número de artigos sobre detectores deepfake, mas a maioria deles não possui códigos ou pesos de modelo disponíveis.
Por isso, um dos problemas aqui é a falta de abertura, que cria uma barreira para o aprimoramento dos métodos de detecção de deepfakes.
Portanto, nós da Sumsub:
Ainda assim, a principal responsabilidade pela protecção online das imagens dos utilizadores da Internet cabe aos próprios utilizadores. Lembre-se de ter cuidado ao compartilhar fotos pessoais online. É melhor usar avatares elegantes, assim como nossos autores fizeram.
E
Escrito por Maksim Artemev, engenheiro-chefe de visão computacional, e Slava Pirogov, engenheiro de visão computacional, na Sumsub