Levando deepfakes a sério by@synthesys

Levando deepfakes a sério

tldt arrow
PT
Read on Terminal Reader

Muito longo; Para ler

Deepfakes são imagens, vozes e vídeos criados por ou com a ajuda de algoritmos de IA destinados a enganar o público. O termo "deepfake" foi usado pela primeira vez no final de 2017 por um usuário do Reddit com o mesmo nome, que compartilhou vídeos pornográficos usando tecnologia de troca de rosto de código aberto no site do Reddit. A tecnologia também pode ser usada para fazer com que pessoas do mundo real apareçam em vídeos e áudios que dizem ou fazem coisas que nunca disseram ou fizeram, para substituir pessoas em vídeos existentes ou para criar conteúdo de vídeo com personagens, celebridades ou personagens completamente inexistentes. políticos importantes.

People Mentioned

Mention Thumbnail

Companies Mentioned

Mention Thumbnail
Mention Thumbnail
featured image - Levando deepfakes a sério
Synthesys AI Studio HackerNoon profile picture

@synthesys

Synthesys AI Studio

Lifelike AI Voice & AI Video Generator. Real Humans &...

react to story with heart

A inteligência artificial não vai desaparecer. Essa tecnologia revolucionária tem o potencial de melhorar a eficiência simplesmente simulando o pensamento humano e pode ser treinada para resolver problemas específicos. De acordo com estatista , a IA será uma indústria bilionária maior até 2025, com aplicações que vão desde o aprendizado personalizado na educação até o atendimento ao cliente aprimorado no comércio eletrônico e nos negócios.

O cenário para os avanços da inteligência artificial é ilimitado e rápido, com novos avanços ocorrendo diariamente. Por exemplo, em termos de vídeos e vozes AI, podemos antecipar novos recursos sendo adicionados e as gerações de vídeo se tornando mais realista e controlável nos próximos anos, um dos quais é Deepfake.

De muitas maneiras, esta é uma nova fronteira para ética e avaliação de riscos tanto quanto para outras tecnologias em crescimento. Isso deu origem a organizações que adotam códigos de ética de IA para especificar formalmente o papel da inteligência artificial no avanço da humanidade. O objetivo de um código de ética de IA é oferecer às partes interessadas a orientação necessária quando confrontados com uma decisão ética em torno do uso de inteligência artificial.

Uma introdução à tecnologia Deepfake

deepfakes são imagens, vozes e vídeos criados por ou com a ajuda de algoritmos de IA destinados a enganar o público.

O termo "deepfake" foi usado pela primeira vez no final de 2017 por um usuário do Reddit com o mesmo nome, que compartilhou vídeos pornográficos usando tecnologia de troca de rosto de código aberto no site do Reddit. Desde então, o termo foi expandido para incluir "aplicativos de mídia sintética" que existiam antes da página do Reddit, bem como novas criações como STYLE-GAN - "imagens estáticas de aparência realista de pessoas que não existem".

A tecnologia Deepfake usa o comportamento de alguém – como voz, rosto, expressões faciais comuns ou movimentos corporais – para gerar um novo conteúdo de áudio ou vídeo que mal se distingue do que é real. Essa tecnologia também pode ser usada para fazer com que pessoas do mundo real apareçam em vídeos e áudios que dizem ou fazem coisas que nunca disseram ou fizeram, para substituir pessoas em vídeos existentes ou para criar conteúdo de vídeo com personagens completamente inexistentes, celebridades, ou importantes políticos proeminentes; e isso levantou inúmeras preocupações sobre a ética dos deepfakes.

Os efeitos deepfake costumavam levar pelo menos um ano para serem criados por especialistas em estúdios de alta tecnologia, mas com o uso de aprendizado de máquina, o rápido desenvolvimento da tecnologia deepfake ao longo dos anos tornou a criação de conteúdo falso verdadeiramente convincente muito mais fácil e rápida.

Redes subjacentes a imagens AI, vídeos AI e áudio AI

Deepfakes começou com o desenvolvimento de Redes Neurais Artificiais (ANNs). Uma RNA é um modelo de aprendizado de máquina construído em uma rede de neurônios notavelmente semelhante ao cérebro humano. A diferença, porém, é que a IA não faz previsões sobre novos dados fornecidos a ela; em vez disso, ele cria novos dados. Esses algoritmos são conhecidos como Generative Adversarial Networks (GANs), e avanços recentes alimentaram a pesquisa e o desenvolvimento, resultando no surgimento de deepfakes.

As Redes Neurais Convolucionais (CNNs), que são baseadas em ANNs, simulam como o córtex visual processa imagens para realizar o reconhecimento de imagens por computador. Redes neurais artificiais e convolucionais estabelecem a base para programas de aprendizado profundo e fundamentam os algoritmos que geram deepfakes hoje: Redes Adversariais Generativas.

Aplicativos de troca de rosto, como Zao e Faceapp (um dos primeiros sucessos do deepfake), por exemplo, permitem que os usuários troquem seus rostos com os de outra pessoa, ocasionalmente de uma celebridade, para criar um deepfake ou vídeo AI ou imagem em segundos. Esses avanços resultam da Deep Generative Modelling, uma tecnologia inovadora que nos permite fazer duplicatas de rostos existentes e construir novas representações incrivelmente realistas de pessoas que não existem.

Esta nova tecnologia tem justificadamente despertado preocupações sobre privacidade e identidade. Mas, se um algoritmo pode construir nossa aparência, será possível replicar ainda mais características de nossa própria identidade digital, como nossa voz – ou talvez criar um dublê de corpo inteiro?

Pose de deepfakes de ameaças

Deepfakes representam uma ameaça significativa para nossa comunidade, sistema político e negócios porque pressionam os jornalistas que estão lutando para distinguir entre notícias verdadeiras e falsas, colocam em risco a segurança nacional ao publicar propaganda e atrapalham eleições, minam a confiança dos cidadãos nas autoridades e aumentam a segurança cibernética preocupações de indivíduos e organizações.

image

Os deepfakes provavelmente representam o maior perigo para o negócio jornalístico, pois são mais perigosos do que as notícias falsas "convencionais", pois são mais difíceis de detectar e os consumidores têm maior probabilidade de presumir que o falso é real. Além disso, a tecnologia permite a criação de vídeos noticiosos ostensivamente confiáveis, colocando em risco a reputação dos jornalistas e da mídia. A partir de apenas algumas imagens, agora é possível criar vídeos e material de vídeo mal atribuído, como uma verdadeira marcha de protesto ou conflito violento legendado para sugerir que ocorreu em outro lugar, é um problema crescente que será agravado pelo aumento de deepfakes.

Reuters , por exemplo, descobriu um vídeo que afirmava mostrar o momento em que um suspeito foi morto a tiros pela polícia enquanto procurava vídeos de testemunhas oculares do tiroteio em massa em Christchurch, Nova Zelândia. No entanto, eles rapidamente perceberam que era de uma ocorrência diferente nos Estados Unidos e que o suspeito do tiroteio em Christchurch não havia sido assassinado.

Basta que as agências de inteligência tenham algum medo, pois os deepfakes podem ser usados para colocar em risco a segurança nacional, propagando propaganda política e interferindo em campanhas eleitorais.

As autoridades de inteligência dos Estados Unidos frequentemente alertam sobre os perigos do envolvimento estrangeiro na política americana, especialmente nas vésperas das eleições. Colocar palavras na boca de alguém em um vídeo viral é uma arma forte nas guerras de desinformação de hoje, e os filmes editados podem facilmente influenciar a opinião do eleitor. Embora essas gravações fabricadas provavelmente gerem agitação doméstica, motins e distúrbios eleitorais, outros estados-nação podem optar por realizar sua política externa com base no engano, levando potencialmente a crises e guerras internacionais.

Um fluxo contínuo de tais gravações também pode impedir a alfabetização digital e a confiança dos cidadãos nas informações fornecidas pelas autoridades. Gravações falsas, que podem ser facilmente geradas com um recurso de conversão de texto em fala como o da Synthesys vozes de IA de funcionários do governo expressando coisas que nunca aconteceram, fazem com que as pessoas desconfiem das autoridades. Além disso, as pessoas podem descartar fitas de vídeo autênticas como falsas apenas porque aprenderam a supor que tudo o que não querem aceitar deve ser falso. Em outras palavras, o maior perigo é que as pessoas comecem a ver tudo como engano ao invés de serem enganadas.

Outro problema oferecido pelos deepfakes são as vulnerabilidades de segurança cibernética. Deepfakes também podem ser usados para influenciar o mercado e as ações, por exemplo, retratando um CEO falando obscenidades racistas, anunciando uma fusão falsa ou apresentando-os como se tivessem cometido um crime. Além disso, pornografia deepfake ou anúncios de produtos podem ser usados para prejudicar a marca de uma empresa, chantagear ou humilhar a administração. A tecnologia Deepfake também pode permitir a representação digitalizada de um executivo, por exemplo, para solicitar uma transferência urgente de dinheiro ou informações privadas de um funcionário.

O lado positivo dos deepfakes

Apesar dos perigos potenciais apresentados pela tecnologia deepfake, ela pode ter aplicações positivas em áreas como entretenimento, mídia educacional, comunicação digital, jogos, mídia social e saúde.

Por exemplo, em filmes em que as vozes dos atores foram perdidas devido a doenças, a tecnologia deepfake pode ajudar na criação de vozes sintéticas ou na atualização da filmagem em vez de refazê-la. Como resultado, os cineastas poderão reproduzir cenas de filmes antigos, criar novos filmes que podem estrelar atores mortos há muito tempo, empregar efeitos CGI e edição facial complexa na pós-produção e elevar os vídeos amadores a um padrão profissional.

A tecnologia Deepfake também permite dublagem de voz natural para filmes em qualquer idioma, permitindo que vários públicos desfrutem de filmes e materiais educacionais com mais eficiência. UMA Comercial mundial de conscientização sobre a malária de 2019 estrelado por David Beckham quebrou os limites da linguagem usando tecnologias visuais e de alteração de voz para fazê-lo parecer multilíngue.


https://www.youtube.com/watch?v=QiiSAvKJIHo

A tecnologia Deepfakes fornece telepresença aprimorada em jogos online e mundos virtuais de bate-papo, assistentes inteligentes com som e aparência naturais e réplicas virtuais de indivíduos. Isso contribui para o desenvolvimento de melhores relacionamentos humanos e engajamento online.

As empresas também têm muito a se beneficiar das possibilidades da tecnologia deepfake aplicável à marca, porque ela tem a capacidade de revolucionar significativamente o comércio eletrônico e a publicidade.

Por exemplo, a tecnologia Deepfake pode permitir provas virtuais para dar aos clientes a capacidade de visualizar como uma roupa ficaria neles antes de comprar e pode fazer comerciais de moda personalizados que variam dependendo do tempo, clima e espectador, bem como criar avatares de IA que podem personalizar a comunicação com os clientes e possibilitar conteúdo superpessoal que transforma pessoas em modelos. Além disso, a capacidade de experimentar roupas na internet é um uso potencial óbvio; a tecnologia não apenas permite que as pessoas façam clones digitais de si mesmas, mas também permite que as pessoas experimentem roupas de noiva em formato digital e, por sua vez, experimentem virtualmente um local de casamento.

Práticas éticas a serem adotadas

image

A inovação em larga escala é uma questão ética, uma vez que a ética se preocupa basicamente com qualquer coisa que possa melhorar ou prejudicar o bem-estar humano. Como resultado, a ética é importante para julgar os objetivos da inovação, como deepfakes, bem como o processo pelo qual ela é realizada e os resultados que dela resultam. A questão fundamental é: "Para quem os deepfakes são projetados?"

"Qual é o propósito de sua criação?" "Como as consequências mais graves podem ser mitigadas?" Responder a essas perguntas pode ajudar organizações e indivíduos a se alinharem com o seguinte quadro ético , que o UNICEF mantém independentemente de trabalharem em uma imagem, áudio ou vídeo deepfake.

Eles incluem:

  • Projete com o usuário em mente.
  • Entenda o ecossistema existente.
  • Projeto para escala.
  • Construa para a sustentabilidade.
  • Seja orientado por dados.
  • Use padrões abertos, dados abertos, código aberto e inovação aberta.
  • Reutilize e melhore.
  • Fazer nenhum mal.
  • Seja colaborativo.

HISTÓRIAS RELACIONADAS

L O A D I N G
. . . comments & more!
Hackernoon hq - po box 2206, edwards, colorado 81632, usa