paint-brush
A batalha dos direitos autorais contra a IA: IA fechada versus de código abertopor@futuristiclawyer
1,184 leituras
1,184 leituras

A batalha dos direitos autorais contra a IA: IA fechada versus de código aberto

por Futuristic Lawyer6m2023/06/12
Read on Terminal Reader

Muito longo; Para ler

O advogado do Reino Unido, Chris Mammen, explica em uma entrevista recente com a Vice sobre música gerada por IA, que a lei se move lentamente e evolui por analogia. “Algo novo surge, e nós descobrimos o que é análogo, e então isso gradualmente se torna uma lei estabelecida”. O problema que enfrentamos agora com IA generativa – modelos de IA que podem gerar resultados criativos, como texto, imagens, música ou vídeos – é a dificuldade de criar analogias. Em outras palavras, relacionar a IA generativa a algo que já conhecemos e entendemos. A tecnologia subjacente é tão complexa que entender como ela funciona em um nível conceitual e como deve ser regulada requer uma séria expansão da mente.
featured image - A batalha dos direitos autorais contra a IA: IA fechada versus de código aberto
Futuristic Lawyer HackerNoon profile picture
0-item
1-item

O advogado baseado no Reino Unido, Chris Mammen, explica em uma entrevista recente ao Vice sobre música gerada por IA , que a lei se move lentamente e evolui por analogia. “ Algo novo surge e nós descobrimos o que é análogo, e então isso gradualmente se torna uma lei estabelecida ”.

O problema que enfrentamos agora com IA generativa – modelos de IA que podem gerar resultados criativos, como texto, imagens, música ou vídeos – é a dificuldade de criar analogias. Em outras palavras, relacionar a IA generativa a algo que já conhecemos e entendemos. A tecnologia subjacente é tão complexa que entender como ela funciona em um nível conceitual e como deve ser regulada requer uma séria expansão da mente.

Assim como nas mídias sociais e na Internet, os modelos de IA, como o ChatGPT da OpenAI ou seu modelo de conversão de texto em imagem DALL-E 2, são enganosamente simples de usar. No entanto, obviamente há muitas coisas acontecendo sob o capô que não entendemos nem um pouco. A lacuna entre a experiência do usuário e todas as coisas complicadas e técnicas por trás dela é onde coisas criminosas e antiéticas podem passar despercebidas.

O Efeito Caixa Preta em Criptomoedas

Vimos esse “efeito caixa preta” claramente no mundo financeiro, recentemente no setor cripto. Poucos apoiadores de cripto, inclusive eu, tinham um conhecimento técnico profundo de como a cripto funcionava, e não sabíamos como as trocas centralizadas eram operadas. Nas finanças tradicionais, é aqui que normalmente contamos com garantias e supervisão governamentais. Mas em uma indústria tão nova e complexa quanto a cripto, quase não havia. A adoção relativamente ampla, a complexidade técnica, a falta de supervisão e a lacuna de conhecimento entre desenvolvedores e usuários criaram as condições perfeitas para o crime e a exploração em massa. No ano passado, as exchanges de criptomoedas entraram em colapso em cascata, mais de US$ 3 bilhões foram roubados das plataformas DeFi em 2022 e centenas de milhares de pessoas ficaram em ruínas financeiras.

A indústria de IA é obviamente muito diferente da indústria criptográfica, mas as mesmas condições para o crime e a exploração estão presentes. Os modelos de IA são amplamente adotados, mais fáceis de usar do que a criptografia, mais tecnicamente complexos, não há muita supervisão e a lacuna de conhecimento entre usuários e desenvolvedores é indiscutivelmente ainda maior do que com a criptografia. Felizmente, existem muitas campanhas de conscientização sobre os perigos e riscos da IA, onde campanhas semelhantes em cripto se afogaram no barulho.

A questão dos direitos autorais

O uso de material protegido por direitos autorais em modelos generativos de IA é uma área em que as leis e estruturas existentes são desafiadas. Na minha postagem da semana passada, escrevi sobre a interpretação da UE dos modelos fundacionais . Nesta semana, vou me concentrar na diferença entre modelos de IA de código fechado e de código aberto e apresentar o Stable Diffusion, um popular modelo de imagem de IA de código aberto que foi atingido por processos de direitos autorais no início deste ano de dois ângulos diferentes. Pretendo publicar outro post sobre os processos e as implicações na lei de direitos autorais nas próximas semanas.

Código aberto x código fechado

Os modelos de fundação de treinamento são um assunto caro em termos de tempo, dinheiro e recursos computacionais. Em geral, apenas as empresas BigTech com bolsos cheios podem arcar com o investimento inicial. Da mesma forma, as empresas por trás dos modelos de fundação geralmente têm interesse em IA de código fechado. Os custos multimilionários de desenvolvimento e treinamento são difíceis de recuperar se os concorrentes puderem acessar todos os ingredientes e usar seu molho secreto.

Uma exceção importante é o LLaMA da Meta, que Mark Zuckerberg e a equipe de pesquisa de IA da Meta decidiram, de forma controversa, tornar público . LLaMA é um modelo de linguagem grande (LLM) lançado em diferentes tamanhos de parâmetros de 7B a 65B. Mesmo a versão de tamanho pequeno a médio, LLaMA-13B, pode superar o GPT-3 da OpenAI, apesar de ser 10 vezes menor. O GPT-3 foi inovador e líder de mercado há apenas três anos.

O cientista-chefe de IA da Meta, Yann LeCun, diz que “a plataforma que vencerá será aberta”. Ele argumenta que o progresso na IA é mais rápido dessa forma e que consumidores e governos se recusarão a adotar a IA, a menos que esteja fora do controle de empresas como Google e Meta.

O contra-argumento à IA de código aberto (que significa disponibilizar o código-fonte) é que os malfeitores podem usar o código para criar aplicativos nefastos, espalhar desinformação, cometer fraudes, crimes cibernéticos e muitas outras coisas ruins. Mark Zuckerberg recebeu recentemente uma carta de dois senadores americanos que criticavam a decisão de disponibilizar o LLaMA ao público. Os senadores concluíram na carta que a “ falta de consideração pública completa das ramificações de sua previsível disseminação generalizada ” foi, em última análise, um “ desserviço ao público”.

A atração em direção ao código aberto

Hoje, menos de três meses após seu lançamento , vários modelos de código aberto estão sobre os ombros do LLaMa. O Vicuna-13B, por exemplo, é um chatbot de código aberto que foi treinado pelo ajuste fino do LLaMA em conversas compartilhadas pelo usuário coletadas do ShareGPT (uma extensão do Chrome que permite aos usuários compartilhar suas conversas com o ChatGPT). De acordo com as avaliações do GPT-4, o Vicuna-13B atinge mais de 90% da qualidade do ChatGPT da OpenAI e do Bard do Google com um custo de treinamento de cerca de US$ 300!

Independentemente das preocupações de concorrência e segurança, há uma forte atração pela IA de código aberto. Modelos novos e aprimorados são lançados com frequência. No HuggingFace Open LLM Leaderboard , o modelo com melhor desempenho no momento é o Falcon 40B , que recentemente destronou o LLaMA da Meta. O Falcon 40B foi desenvolvido pelo Technology Innovation Institute de Abu Dhabi com a ajuda da Amazon .

O júri ainda não decidiu se o desenvolvimento de código aberto poderia dominar o uso de IA generativa no futuro. Em um documento interno vazado do Google publicado pela SemiAnalysis, um engenheiro sênior do Google argumentou que o Google e o OpenAI “não têm fosso” e acabarão sendo superados pela IA de código aberto. Ele escreve que “ Os modelos de código aberto são mais rápidos, mais personalizáveis, mais privados e mais capazes pound-for-pound ”.

IA de estabilidade e difusão estável

Uma das empresas na linha de frente da IA de código aberto é a Stability AI . A empresa foi fundada pelo ex-gerente de fundos de hedge Emad Mostaque. De acordo com seu site, Stability AI desde seu lançamento em 2021 acumulou um exército de mais de 140.000 desenvolvedores e sete centros de pesquisa em todo o mundo. A comunidade de pesquisa desenvolve modelos de IA para diferentes finalidades, como imagem, linguagem, código, áudio, vídeo, conteúdo 3D, design, biotecnologia e outras pesquisas científicas.

O produto Stability AI pelo qual é mais conhecido até hoje é o modelo de imagem Stable Diffusion. Stable Diffusion é um modelo de imagem AI que pode gerar ou ajustar imagens a partir de prompts de texto. Foi lançado em agosto de 2022 , não muito tempo depois que DALL-E 2, sensação viral da internet da OpenAI, foi lançado em particular para 1 milhão de usuários na lista de espera. Muitos na comunidade de AI consideraram a Stable Diffusion um marco revolucionário . Ele não apenas correspondia, ou mesmo superava, os recursos de modelos contemporâneos, grandes e fechados de texto para imagem, como DALL-E 2 ou Imagen do Google, mas também era de código aberto.

De acordo com a licença Stable Diffusions , qualquer pessoa pode usar o modelo para criar aplicativos comerciais, estudar sua arquitetura, construir sobre ele e modificar seu design dentro do escopo da lei, ética e bom senso. Diferente dos modelos de imagem de código fechado, o Stable Diffusion pode ser baixado e executado localmente em um PC comum para jogos. Para usuários casuais sem habilidades de codificação, o Stable Diffusion também pode ser acessado por meio do aplicativo da Web DreamStudio ou do novo aplicativo da Web de código aberto StableStudio .

Como uma história paralela, o Stable Diffusion foi de fato desenvolvido por uma equipe de pesquisadores da Ludwig-Maximilians-Universität em Munique, enquanto o Stability AI financiou os recursos de computação para treinar o modelo. A estabilidade foi criticada por receber muito crédito indevido, já que a Universidade de Munique fez todos os levantamentos pesados que resultaram na difusão estável. Em um artigo da Forbes publicado no último domingo , o fundador do Stability, Emad Mosque, foi retratado como um exagerador patológico com tendência a mentir. Dr. Björn Ommer, chefe da equipe de pesquisa por trás da Stable Diffusion, disse à Forbes que esperava divulgar o trabalho de seu laboratório, mas todo o departamento de imprensa de sua universidade estava de férias na época (essas coisas só podem acontecer em universidades públicas).

Difusão estável e a tempestade de direitos autorais

A abertura do Stable Diffusion é um presente para pesquisadores, bem como para governos, concorrentes, reguladores e defensores sanguinários dos direitos autorais. Na última categoria, encontramos Matthew Butterick e sua equipe jurídica que representa três artistas independentes em uma ação coletiva contra Stability AI, MidJourney e DeviantArt .

Segundo o advogado Matthew Butterick: “ [Stable Diffusion] é um parasita que, se proliferar, causará danos irreparáveis aos artistas, agora e no futuro.”

Eu diria que Butterick está, de certa forma, correto sobre sua caracterização da difusão estável e dos modelos modernos de imagem de IA. Eles meio que sugam a criatividade do trabalho original, misturam tudo em grande escala e ameaçam a subsistência de artistas que, involuntária e inconscientemente, ajudaram a treinar o modelo com microcontribuições.

No entanto, a ação coletiva está repleta de tantas imprecisões legais e técnicas, mal-entendidos e deficiências que só posso imaginar se a equipe jurídica estava louca quando escreveu o primeiro rascunho da intimação. Outra teoria é que Butterick e companhia estão intencionalmente tentando deturpar como a tecnologia funciona para confundir o público ou os juízes. Difícil de dizer.

Em minha próxima postagem, examinaremos mais detalhadamente o processo frívolo e explicaremos por que ele não coça a coceira dos direitos autorais no ponto certo.

Publicado também aqui .