Les deepfakes ont augmenté ces dernières années, avec de multiples outils d'échange de visage gagnant en popularité parmi les fraudeurs et même les groupes criminels organisés.
Selon le rapport d'Europol «
Cependant, comme pour tout ce qui concerne l’IA, c’est toujours une course aux armements entre les fraudeurs et les détecteurs modernes de deepfake. À l'issue de la Semaine internationale de sensibilisation à la fraude, nous voulions fournir une vérification de la réalité des capacités et des progrès des détecteurs de deepfake au cours des dernières années - une vérification de la réalité nécessaire uniquement en raison de l'ampleur du problème de la fraude par deepfake.
Dans nos recherches internes, nous avons analysé les performances des détecteurs de deepfake modernes et open source publiés depuis 2020.
Voici notre observation fondamentale : lorsqu’il s’agit de distinguer les contenus réels des faux, les ordinateurs ont longtemps surpassé les humains. Cette découverte souligne la nécessité d’exploiter la puissance des algorithmes et des méthodes de pointe.
Presque tous les travaux de pointe dans ce domaine mettent en évidence la détection des visages comme élément fondamental de leurs algorithmes. La détection des visages est une solution proche, caractérisée par une grande précision – pas parfaite, mais proche.
Lorsqu’un visage est bien en vue sur une image et regarde vers l’avant, les modèles de détection modernes excellent dans l’identification rapide et fiable.
Et bien qu’il existe plusieurs façons de créer des images deepfake, une méthode se révèle à la fois populaire et robuste : l’échange de visage en une seule fois. Cette technique utilise deux images, une source et une cible, pour transférer les traits du visage de la première vers la seconde.
Dans le paysage actuel, cette méthode est considérée comme l’approche la plus puissante pour créer des images et des vidéos deepfake.
Vous pouvez essayer notre
Le manque de code et de pondérations facilement disponibles dans la majorité des travaux connexes souligne un défi commun dans le domaine de la détection des deepfakes.
Ce paysage donne souvent la priorité aux applications commerciales plutôt qu’à la diffusion scientifique, ce qui entraîne un accès limité aux outils et aux ressources essentiels aux communautés universitaires et de recherche.
Ce manque de code et de poids de modèle ouvertement partagés a constitué un obstacle important à l’avancement plus large des méthodes de détection des deepfakes.
Il existe de nombreuses approches pour détecter les deepfakes, et à chaque conférence, de nouveaux articles apparaissent.
Certains de ces articles se concentrent principalement sur l’architecture du modèle pour la détection des deepfakes, s’inspirant considérablement du modèle du transformateur et tentant de l’adapter au défi.
Parallèlement, d’autres articles se concentrent sur les méthodes de formation, notamment sur des ensembles de données synthétiques remplis de fausses images. Le domaine est riche en benchmarks, et dans la section suivante, nous discuterons de certains des plus puissants d'entre eux, en mettant l'accent sur ceux dont le code open source et les pondérations sont disponibles.
La base de référence la plus importante pour toutes les méthodes modernes de détection des deepfakes est la recherche publiée dans l'article.
Ils ont utilisé des observateurs humains pour valider ces distinctions. Le modèle de classification deepfake présenté dans l'article est un système binaire basé sur un squelette XceptionNet avec des poids ImageNet, affinés sur leur ensemble de données.
En utilisant un mécanisme de vote simple basé sur les réponses du modèle, les auteurs ont obtenu un impact significatif dans le domaine de la détection des deepfakes malgré la simplicité architecturale du modèle.
Les auteurs mettent en évidence un problème courant dans les modèles précédents de détection des deepfakes, qui se caractérisent principalement par leur recours à une approche de classificateur binaire simple.
L'approche de base du classificateur binaire qui ne tient pas compte des distinctions subtiles entre les images réelles et fausses. Les auteurs proposent ici une alternative inspirée de la classification fine, utilisant un réseau multi-attention avec plusieurs têtes d'attention pour se concentrer sur différentes régions d'artefacts.
Ce réseau combine des fonctionnalités de texture de bas niveau et des fonctionnalités sémantiques de haut niveau pour créer des représentations d'images et un mécanisme distinctif d'augmentation des données guidé par l'attention pour la formation.
Cette approche répond aux limites des modèles existants, ce qui en fait une méthode prometteuse pour la détection des deepfakes.
Les auteurs de « M2TR :
Ils introduisent une approche multimodale avec une structure multi-échelle, utilisant un filtre de fréquence pour détecter les artefacts qui peuvent ne pas être visibles après compression.
Ils utilisent en outre un bloc de fusion multimodalité inspiré par l’auto-attention pour fusionner les caractéristiques RVB et de fréquence en une représentation unifiée, améliorant ainsi leur méthode de détection des deepfakes.
Dans "
Ils proposent une approche basée sur deux composantes : l’apprentissage par reconstruction et l’apprentissage par classification :
L'apprentissage de la classification identifie les disparités entre les images réelles et fausses.
Les auteurs emploient une approche multi-échelle pour améliorer ces représentations, en utilisant un réseau de reconstruction dédié pour modéliser les visages réels et une perte d'apprentissage métrique pour améliorer la détection de modèles de contrefaçon jusqu'alors inconnus.
Dans le travail, "
Ces modèles ont tendance à mémoriser la distribution des véritables pièces d’identité, ce qui signifie qu’une fausse image peut parfois apparaître comme un mélange de deux pièces d’identité différentes. Cependant, ce problème devient particulièrement difficile lorsque l’on tente d’appliquer ces modèles à des ensembles de données nouveaux, invisibles ou croisés. Dans ces cas-là, le modèle a du mal à déchiffrer la véritable identité de l’image car il ne l’a jamais rencontrée auparavant.
Pour résoudre ce problème, que les auteurs appellent « fuite d'identité implicite », ils s'efforcent de trouver des solutions qui améliorent la généralisation des modèles de détection des deepfakes au-delà des limites de leurs ensembles de données de formation.
Pour fournir la preuve de ce phénomène, les auteurs ont d’abord utilisé des classificateurs deepfake pré-entraînés et ont gelé toutes les couches sauf la dernière. Ils ont remplacé la dernière couche par une couche linéaire et l’ont peaufinée pour une tâche de classification des identifiants.
Cette expérience a montré qu’une seule couche linéaire pouvait être efficacement entraînée à classer les identifiants avec une grande précision, démontrant ainsi le potentiel de fuite d’identité. Ensuite, les auteurs ont créé une nouvelle méthode pour échanger des parties du visage à différentes échelles, en mettant l’accent principalement sur l’échange de régions spécifiques du visage.
Ils ont ensuite formé un modèle de détection multi-échelle en utilisant les images générées par ce processus. Ce modèle examine des cartes de caractéristiques de différentes tailles dans diverses couches pour détecter l'existence de zones d'artefacts, fournissant ainsi une observation approfondie des signaux probables de manipulation de deepfake.
Le dernier article notable dans le domaine de la détection des deepfakes est "
Cet ensemble de données se compose d'images générées par le mélange d'images pseudo-source et cibles dérivées d'images vierges individuelles. Ce processus reproduit efficacement les artefacts de contrefaçon courants souvent rencontrés dans les deepfakes.
L’idée clé derrière cette approche est qu’en utilisant de faux échantillons plus généraux et moins facilement reconnaissables, les classificateurs peuvent apprendre des représentations plus génériques et plus robustes sans succomber au surajustement d’artefacts spécifiques à la manipulation.
Les auteurs identifient quatre principaux types d’artefacts deepfake courants : l’inadéquation des points de repère, la limite de mélange, l’inadéquation des couleurs et l’incohérence des fréquences. Ils synthétisent ensuite ces artefacts à l’aide d’un modèle spécialisé.
Pour l'architecture du modèle, les auteurs ont utilisé EfficientNet-b4, pré-entraîné sur l'ensemble de données ImageNet. Ils affinent ce modèle sur leur ensemble de données Self-Blended Images (SBI), garantissant que le modèle devient apte à détecter les deepfakes en apprenant de ces images mélangées avec des artefacts de contrefaçon courants.
Nous avons analysé les performances des détecteurs de deepfake modernes et de pointe qui ont été publiés après 2020 et mettons leurs codes et poids de modèle à la disposition du public et de la recherche.
Nous avons calculé des métriques pertinentes pour chaque modèle sur les mêmes ensembles de données publiques afin de voir comment les qualités divulguées par les auteurs sont transférées à un ensemble de données similaire. Ensuite, nous avons appliqué des transformations simples qui sont fréquemment utilisées par les fraudeurs pour contourner la vérification (comme l'échange de visage) et avons constaté l'efficacité des détecteurs de deepfake.
Nous avons utilisé
Pour introduire un ensemble de données de fausses images de vérité terrain, nous avons utilisé un outil de pointe
Pour générer une quantité suffisante d'images, nous avons utilisé des paires aléatoires de photos source et de référence de l'ensemble de données pour créer Fake-Celeba-HQ et Fake-LFW. Chaque ensemble de données contient exactement 10 000 images.
Pour plus de simplicité, nous avons utilisé la principale mesure de mesure de la qualité des modèles avec une précision de 1 classe avec un seuil par défaut de 0,5. En d’autres termes, pour chaque ensemble de données, nous avons calculé le pourcentage d’étiquettes correctement devinées. De plus, nous calculons une métrique ROC-AUC totale sur des ensembles de données combinés réels et faux.
LFW | CelebaHQ | Faux-LFW | Faux-CelebaHQ | Score AUC | |
---|---|---|---|---|---|
SBI | 0,82 | 0,57 | 0,82 | 0,96 | 0,84 |
CADDM | 0,49 | 0,69 | 0,80 | 0,54 | 0,67 |
RECCE | 0,01 | 0,00 | 0,98 | 0,00 | 0,54 |
TAPIS | 0,00 | 0,74 | 1. | 1. | 0,75 |
FF++ | 0,13 | 0,67 | 0,88 | 0,53 | 0,57 |
M2TR | 0,42 | 0,56 | 0,69 | 0,51 | 0,56 |
Tableau 1. Précision de classe 1 et AUC pour les ensembles de données réels/faux sans modifications
Comme prévu, la plupart des modèles ont eu des problèmes pour détecter les deepfakes SimSwap. Le meilleur modèle est SBI, avec un score de 82 % et 96 %, montrant un score AUC prometteur de 0,84.
Ce qui est inattendu, c'est qu'il existe de nombreux modèles performants qui ont eu des difficultés à classer comme réelles les images provenant d'ensembles de données réels :
MAT, FF et M2TR ont identifié moins de la moitié des visages de LFW comme étant des deepfakes.
Il existe 3 modèles qui ont un score AUC proche de 0,5. Cela soulève des questions sur la transférabilité de ces modèles vers un domaine plus réaliste et sur la manière dont ils peuvent facilement être contournés par les fraudeurs.
Pour tester le comportement de ces modèles sur un domaine plus réaliste, nous essaierons deux techniques différentes que les fraudeurs exploitent habituellement lorsqu'ils utilisent des deepfakes.
La première chose qu’ils font pour masquer la plupart des artefacts et des irrégularités est la réduction d’échelle. Étant donné que dans la plupart des contrôles de vivacité et de deepfake, il n'y a aucune exigence en matière de qualité vidéo, les fraudeurs compressent généralement les vidéos deepfakes.
Pour simuler cette approche, nous utiliserons les mêmes ensembles de données, mais compresserons chaque image à une résolution beaucoup plus petite (128 x 128) à l'aide d'un algorithme bilinéaire. Idéalement, les détecteurs de deepfake devraient être capables de détecter les deepfakes même si la résolution des images lors de l'inférence diffère de la résolution au cours du processus de formation.
LFW | CelebaHQ | Faux-LFW | Faux-CelebaHQ | Score AUC | |
---|---|---|---|---|---|
SBI | 0,82 | 0,82 | 0,43 | 0,23 | 0,6 |
CADDM | 0,55 | 0,46 | 0,62 | 0,65 | 0,6 |
RECCE | 0,83 | 0,89 | 0,13 | 0,08 | 0,54 |
TAPIS c40 | 1. | 1. | 0. | 0. | 0,5 |
Figure 2 : Meilleures métriques des détecteurs de deepfake sur un ensemble de données de faible qualité
Ici, les résultats sont plus que déroutants. Les modèles qui atteignaient des performances plus ou moins compétitives ont désormais une précision proche de zéro sur de faux ensembles de données. On peut voir que le modèle MAT a simplement tout évalué comme une image réelle, et le modèle RECCE est très proche de la même décision.
La deuxième pratique frauduleuse consiste à mettre à l’échelle l’image pour retoucher les images truquées afin de supprimer toutes les imperfections qui pourraient « abandonner » les images fabriquées aux détecteurs. L’un des nombreux exemples est celui des yeux : il n’y a pas de pupilles rondes ni de réfractions lumineuses sur la plupart des images truquées.
Ainsi, un fraudeur utilise généralement un logiciel d’embellissement ou d’« amélioration » spécifique, similaire à ceux utilisés sur Instagram ou TikTok, pour masquer toutes les impuretés.
Pour simuler les effets d'un tel logiciel, nous avons utilisé son logiciel étroitement lié
LFW | CelebaHQ | Faux-LFW | Faux-CelebaHQ | Score AUC | |
---|---|---|---|---|---|
SBI | 0,76 | 0,63 | 0,38 | 0,58 | 0,62 |
CADDM | 0,52 | 0,71 | 0,59 | 0,38 | 0,57 |
RECCE | 0,18 | 0. | 0,8 | 1. | 0,52 |
TAPIS c40 | 0,99 | 1. | 0. | 0. | 0,5 |
Figure 3 : Meilleures métriques des détecteurs de deepfake sur un ensemble de données amélioré
Ici, on peut observer la même tendance que dans l'expérience 2. Le modèle MAT a tout considéré comme réel et RECCE a tout considéré comme faux. Les performances de SBI et CADDM sont meilleures que celles du hasard, mais ils ont manqué plus de la moitié des deepfakes dans les ensembles de données Fake-LFW et Fake-CELEBA-HQ.
Le résultat de cette recherche est sombre puisqu’il n’existe pas de détecteurs open source de deepfake qui seraient sécurisés à 100 %, tandis que la fraude deepfake devrait se développer davantage, à mesure que sa génération devient plus facile et moins chère. Selon les statistiques internes de Sumsub, la prévalence de la fraude deepfake a considérablement augmenté entre 2022 et le premier trimestre 2023 :
Nos expériences montrent qu’il reste encore beaucoup à faire en matière de détection des deepfakes. Même les meilleurs modèles open source de détection des deepfakes ne sont pas préparés pour le monde réel et ne peuvent pas lutter contre les fraudeurs.
Il existe un grand nombre d'articles sur les détecteurs de deepfake, mais la plupart d'entre eux ne disposent pas de poids de code ou de modèle.
Pour cette raison, l’un des problèmes ici est le manque d’ouverture qui crée un obstacle à l’amélioration des méthodes de détection des deepfakes.
Par conséquent, chez Sumsub :
Pourtant, la responsabilité principale de la protection en ligne des images des internautes incombe aux utilisateurs eux-mêmes. N'oubliez pas d'être prudent lorsque vous partagez des photos personnelles en ligne. Mieux vaut plutôt utiliser des avatars élégants, tout comme nos auteurs l’ont fait.
Et
Écrit par Maksim Artemev, ingénieur principal en vision par ordinateur, et Slava Pirogov, ingénieur en vision par ordinateur, chez Sumsub