Prendre les deepfakes au sérieux by@synthesys
586 lectures

Prendre les deepfakes au sérieux

2022/04/18
par @synthesys 586 lectures
tldt arrow
FR
Read on Terminal Reader

Trop long; Pour lire

Les deepfakes sont des images, des voix et des vidéos créées par ou avec l'aide d'algorithmes d'intelligence artificielle destinés à tromper un public. Le terme "deepfake" a été utilisé pour la première fois fin 2017 par un utilisateur de Reddit du même nom, qui partageait des vidéos pornographiques à l'aide de la technologie open source d'échange de visage sur le site Reddit. La technologie pourrait également être utilisée pour faire apparaître des personnes dans le monde réel dans des vidéos et des audios qui disent ou font des choses qu'elles n'ont jamais dites ou faites, pour remplacer des personnes dans des vidéos existantes ou pour créer du contenu vidéo avec des personnages, des célébrités ou des politiciens importants.

People Mentioned

Mention Thumbnail

Companies Mentioned

Mention Thumbnail
Mention Thumbnail
featured image - Prendre les deepfakes au sérieux
Synthesys AI Studio HackerNoon profile picture

@synthesys

Synthesys AI Studio

Lifelike AI Voice & AI Video Generator. Real Humans &...

react to story with heart

L'intelligence artificielle ne s'en va pas. Cette technologie révolutionnaire a le potentiel d'améliorer l'efficacité en simulant simplement la pensée humaine et peut être formée pour résoudre des problèmes spécifiques. Selon Statistique , l'IA sera une industrie plus importante d'un milliard de dollars d'ici 2025, avec des applications allant de l'apprentissage personnalisé dans l'éducation à l'amélioration du service client dans le commerce électronique et les affaires.

Le paysage des progrès de l'intelligence artificielle est illimité et rapide, avec de nouvelles percées qui se produisent quotidiennement. Par exemple, en termes de vidéos et de voix IA, nous pouvons anticiper l'ajout de nouvelles fonctionnalités et l'augmentation du nombre de générations de vidéos. réaliste et contrôlable dans les années à venir, dont Deepfake.

À bien des égards, il s'agit d'une nouvelle frontière pour l'éthique et l'évaluation des risques tout autant que pour d'autres technologies en plein essor. Cela a donné lieu à des organisations adoptant des codes de déontologie de l'IA pour spécifier formellement le rôle de l'intelligence artificielle dans l'avancement de l'humanité. L'objectif d'un code d'éthique de l'IA est d'offrir aux parties prenantes une orientation indispensable lorsqu'elles sont confrontées à une décision éthique entourant l'utilisation de l'intelligence artificielle.

Une introduction à la technologie Deepfake

Faux faux sont des images, des voix et des vidéos qui sont créées par ou avec l'aide d'algorithmes d'IA destinés à tromper un public.

Le terme "deepfake" a été utilisé pour la première fois fin 2017 par un utilisateur de Reddit du même nom, qui partageait des vidéos pornographiques à l'aide de la technologie open source d'échange de visage sur le site Reddit. Le terme a depuis été élargi pour inclure les "applications de médias synthétiques" qui existaient avant la page Reddit, ainsi que de nouvelles créations telles que STYLE-GAN - "des images fixes réalistes de personnes qui n'existent pas".

La technologie Deepfake utilise le comportement d'une personne - comme la voix, le visage, les expressions faciales courantes ou les mouvements corporels - pour générer un nouveau contenu audio ou vidéo qui se distingue à peine de ce qui est réel. Cette technologie pourrait également être utilisée pour faire apparaître des personnes dans le monde réel dans des vidéos et des audios qui disent ou font des choses qu'elles n'ont jamais dites ou faites, pour remplacer des personnes dans des vidéos existantes ou pour créer du contenu vidéo avec des personnages, des célébrités, ou d'importants politiciens éminents ; et cela a soulevé de nombreuses inquiétudes quant à l'éthique des deepfakes.

Auparavant, les effets deepfake prenaient au moins un an à créer pour les experts des studios de haute technologie, mais avec l'utilisation de l'apprentissage automatique, le développement rapide de la technologie deepfake au fil des ans a rendu la création de faux contenus vraiment convaincants beaucoup plus facile et plus rapide.

Réseaux sous-jacents aux images IA, aux vidéos IA et à l'audio IA

Deepfakes a commencé avec le développement des réseaux de neurones artificiels (ANN). Un ANN est un modèle d'apprentissage automatique construit sur un réseau de neurones remarquablement similaire au cerveau humain. Il diffère, cependant, en ce que l'IA ne fait pas de prédictions sur les nouvelles données qui lui sont fournies ; au lieu de cela, il crée de nouvelles données. Ces algorithmes sont connus sous le nom de Generative Adversarial Networks (GAN) et des percées récentes ont alimenté la recherche et le développement, entraînant l'émergence de deepfakes.

Les réseaux de neurones convolutifs (CNN), qui sont basés sur les ANN, simulent la façon dont le cortex visuel traite les images afin d'effectuer la reconnaissance d'images par ordinateur. Les réseaux de neurones artificiels et convolutifs jettent les bases des programmes d'apprentissage en profondeur et sous-tendent les algorithmes qui génèrent aujourd'hui des deepfakes : les réseaux antagonistes génératifs.

Les applications d'échange de visage, telles que Zao et Faceapp (l'un des premiers succès de deepfake), par exemple, permettent aux utilisateurs d'échanger leur visage avec celui d'une autre personne, parfois d'une célébrité, pour créer un deepfake ou Vidéo IA ou image en quelques secondes. Ces avancées résultent de la modélisation générative profonde, une technologie révolutionnaire qui nous permet de faire des doublons de visages existants et de construire de nouvelles représentations incroyablement réalistes de personnes qui n'existent pas.

Cette nouvelle technologie a suscité à juste titre des inquiétudes concernant la vie privée et l'identité. Mais, si un algorithme peut construire notre apparence, sera-t-il possible de reproduire encore plus de caractéristiques de notre propre identité numérique, comme notre voix – ou peut-être de créer un double corporel ?

Menaces Deepfakes Pose

Les deepfakes constituent une menace importante pour notre communauté, notre système politique et nos affaires, car ils exercent une pression sur les journalistes qui ont du mal à faire la distinction entre les vraies et les fausses nouvelles, mettent en danger la sécurité nationale en publiant de la propagande et en perturbant les élections, sapent la confiance des citoyens dans les autorités et renforcent la cybersécurité. préoccupations des particuliers et des organisations.

image

Les deepfakes représentent très probablement le plus grand danger pour l'activité journalistique, car ils sont plus dangereux que les fausses nouvelles "conventionnelles", car ils sont plus difficiles à détecter et les consommateurs sont plus susceptibles de supposer que le faux est réel. De plus, la technologie permet la création de vidéos d'actualité apparemment crédibles, mettant en danger la réputation des journalistes et des médias. A partir de quelques images seulement, des vidéos peuvent maintenant être créées et le matériel vidéo mal attribué, comme une véritable marche de protestation ou un conflit violent sous-titré pour impliquer qu'il a eu lieu ailleurs, est un problème croissant qui sera aggravé par la montée des deepfakes.

Reuter , par exemple, a découvert une vidéo prétendant montrer le moment où un suspect a été abattu par la police alors qu'il cherchait des vidéos de témoins oculaires de la fusillade de masse à Christchurch, en Nouvelle-Zélande. Cependant, ils se sont vite rendu compte qu'il s'agissait d'un événement différent aux États-Unis et que le suspect de la fusillade de Christchurch n'avait pas été assassiné.

Il suffit que les agences de renseignement aient une certaine peur, car les deepfakes peuvent être utilisés pour mettre en danger la sécurité nationale en propageant la propagande politique et en interférant avec les campagnes électorales.

Les services de renseignement américains ont souvent mis en garde contre les dangers d'une implication étrangère dans la politique américaine, en particulier à l'approche des élections. Mettre des mots dans la bouche de quelqu'un sur une vidéo virale est une arme puissante dans les guerres de désinformation d'aujourd'hui, et les films montés peuvent facilement influencer l'opinion des électeurs. Alors que de tels enregistrements fabriqués sont susceptibles de générer des troubles intérieurs, des émeutes et des troubles électoraux, d'autres États-nations peuvent choisir de mener leur politique étrangère basée sur la tromperie, ce qui pourrait conduire à des crises et des guerres internationales.

Un flux continu de tels enregistrements est également susceptible d'entraver la culture numérique et la confiance des citoyens dans les informations fournies par les autorités. Enregistrements factices, qui peuvent facilement être générés avec une fonction de synthèse vocale comme celle de Synthesys Voix de l'IA des représentants du gouvernement exprimant des choses qui ne se sont jamais produites, amènent les gens à se méfier des autorités. De plus, les gens peuvent rejeter les bandes vidéo authentiques comme fausses simplement parce qu'ils ont appris à supposer que tout ce qu'ils ne veulent pas accepter doit être faux. En d'autres termes, le plus grand danger est que les gens commencent à tout voir comme une tromperie plutôt que d'être trompés.

Un autre problème posé par les deepfakes est les vulnérabilités de la cybersécurité. Les deepfakes pourraient également être utilisés pour influencer le marché et les actions, par exemple en décrivant un PDG prononçant des obscénités racistes, en annonçant une fausse fusion ou en les présentant comme s'ils avaient commis un crime. De plus, la pornographie deepfake ou les annonces de produits pourraient être utilisées pour nuire à la marque d'une entreprise, faire du chantage ou humilier la direction. La technologie Deepfake peut également permettre l'usurpation d'identité numérique d'un cadre, par exemple, pour demander un transfert d'argent urgent ou des informations privées à un employé.

Le côté positif des deepfakes

Malgré les dangers potentiels présentés par la technologie deepfake, elle peut avoir candidatures positives dans des domaines tels que le divertissement, les médias éducatifs, les communications numériques, les jeux, les médias sociaux et la santé.

Par exemple, dans les films où les voix des acteurs ont été perdues à cause d'une maladie, la technologie deepfake peut aider à créer des voix synthétiques ou à mettre à jour des séquences de films plutôt qu'à les refaire. En conséquence, les cinéastes pourront reproduire de vieilles scènes de films, créer de nouveaux films qui peuvent mettre en vedette des acteurs morts depuis longtemps, utiliser des effets CGI et l'édition complexe de visages en post-production, et élèvent les vidéos amateurs à un niveau professionnel.

La technologie Deepfake permet également un doublage vocal naturel pour les films dans n'importe quelle langue, permettant à divers publics de profiter plus efficacement des films et du matériel pédagogique. UN Publicité mondiale de sensibilisation au paludisme 2019 mettant en vedette David Beckham a brisé les frontières linguistiques en utilisant des technologies visuelles et de modification de la voix pour le faire apparaître multilingue.


https://www.youtube.com/watch?v=QiiSAvKJIHo

La technologie Deepfakes offre une téléprésence améliorée dans les jeux en ligne et les mondes de chat virtuel, des assistants intelligents au son et à l'apparence naturels et des répliques virtuelles d'individus. Cela contribue au développement de meilleures relations humaines et de l'engagement en ligne.

Les entreprises ont également beaucoup à bénéficier des possibilités de la technologie deepfake applicable à la marque, car elle a la capacité de révolutionner considérablement le commerce électronique et la publicité.

Par exemple, la technologie Deepfake peut permettre aux essayages virtuels de donner aux clients la possibilité de prévisualiser comment une tenue apparaîtrait sur eux avant de l'acheter et peut faire des publicités de mode personnalisées qui varient en fonction de l'heure, de la météo et du spectateur, ainsi que créer Avatars IA qui peut personnaliser les communications avec les clients et permettre un contenu super personnel qui transforme les gens en modèles. De plus, la possibilité d'essayer des vêtements sur Internet est une utilisation potentielle évidente ; la technologie permet non seulement aux gens de créer des clones numériques d'eux-mêmes, mais permet également aux gens d'essayer des vêtements de mariée sous forme numérique et, à leur tour, de découvrir virtuellement un lieu de mariage.

Pratiques éthiques à adopter

image

L'innovation à grande échelle est une question éthique puisque l'éthique concerne essentiellement tout ce qui peut améliorer ou entraver le bien-être humain. Par conséquent, l'éthique est importante pour juger des objectifs de l'innovation, tels que les deepfakes, ainsi que du processus par lequel elle est réalisée et des résultats qui en découlent. La question fondamentale est : "Pour qui les deepfakes sont-ils conçus ?"

"Quel est le but de leur création?" « Comment atténuer les conséquences les plus graves ? » Répondre à ces questions peut aider les organisations et les individus à s'aligner sur les éléments suivants cadre éthique , que l'UNICEF gère, qu'ils travaillent sur un deepfake photo, audio ou vidéo.

Ils comprennent:

  • Concevoir en pensant à l'utilisateur.
  • Comprendre l'écosystème existant.
  • Conception à l'échelle.
  • Construire pour la durabilité.
  • Soyez axé sur les données.
  • Utilisez des normes ouvertes, des données ouvertes, l'open source et l'innovation ouverte.
  • Réutiliser et améliorer.
  • Ne fais pas de mal.
  • Soyez collaboratif.

HISTOIRES CONNEXES

L O A D I N G
. . . comments & more!
Hackernoon hq - po box 2206, edwards, colorado 81632, usa