paint-brush
Ações judiciais coletivas contra empresas de IA, luditas modernos e muito maispor@futuristiclawyer
165 leituras

Ações judiciais coletivas contra empresas de IA, luditas modernos e muito mais

por Futuristic Lawyer9m2023/06/23
Read on Terminal Reader

Muito longo; Para ler

Pessimistic Archive é um boletim informativo baseado em recortes de jornais antigos. As gerações passadas expressam suas preocupações com o futuro e as novas tecnologias. Três artistas visuais independentes chegaram ao ponto de entrar com uma ação coletiva contra a Stable Diffusion. O processo está essencialmente assumindo todos os modelos de IA generativos treinados em dados protegidos por direitos autorais.
featured image - Ações judiciais coletivas contra empresas de IA, luditas modernos e muito mais
Futuristic Lawyer HackerNoon profile picture

Introdução

Arquivo Pessimista é uma newsletter baseada em recortes de jornais antigos onde as gerações passadas expressam as suas preocupações sobre o futuro e as novas tecnologias.


Em 1859, o poeta francês Charles Baudelaire descreveu a fotografia como *“o refúgio de todo aspirante a pintor, todo pintor muito mal dotado ou muito preguiçoso para concluir seus estudos”* e abraçá-lo era sinal de “cegueira” e “imbecilidade”.


Em 1906, um escritor chamado cartas de amor escritas com uma máquina de escrever a mais “ produção fria, mecânica e pouco romântica que se possa imaginar ”, enquanto outro escritor disse que “ A garota que agüenta uma carta de amor datilografada agüenta qualquer coisa ”.


No século passado, manchetes de jornais que chamam a atenção alertou contra a leitura na cama, os males da patinação, “cara de bicicleta” que foi atribuída à “ tensão nervosa imposta ao piloto, para manter o equilíbrio”, e a Sociedade Americana de Compositores, Autores e Editores provou com gráficos como “ os filmes falados, o rádio e o fonógrafo ” haviam “ assassinado a música.


Avançando para 2023, temos a chamada inteligência artificial. Ele pode gerar texto, imagens, vídeos e músicas perfeitamente e em segundos a partir de prompts de texto. Muitos artistas estão preocupados.


Três artistas visuais independentes - Sarah Andersen, Kelly Mckernan e Karla Ortiz - chegaram a registrar uma ação coletiva contra a Stable Diffusion com a ajuda do advogado Matthew Butterick e litigantes do escritório de advocacia Joseph Saveri.


Matthew Butterick já é uma figura conhecida na “batalha legal dos direitos autorais contra a IA” de outra ação coletiva contra o CoPilot do Github , uma ferramenta de IA generativa para geração de código.

A ação coletiva

No meu último post , escrevi sobre o gerador de imagem AI de código aberto, Stable Diffusion. O processo de ação coletiva é direcionado contra o proprietário da Stable Diffusion, Stability AI, outra famosa empresa de imagem de IA, Midjourney, e a comunidade de arte online, DevianArt.


No entanto, a reclamação do queixoso é formulada em um escopo amplo e está essencialmente assumindo todos os modelos de IA generativa treinados em dados protegidos por direitos autorais - que são todos os grandes, e em quantidades gigantescas.


Com efeito, se o tribunal federal de São Francisco decidir julgar o caso em 19 de julho, apesar os pedidos dos arguidos para rejeitar , a decisão do tribunal pode impactar massivamente uma indústria multibilionária .


No geral, o trio de artistas por trás do processo de ação coletiva está tentando impor um "sim" a duas questões difíceis de direitos autorais que os modelos generativos de IA dão origem - uma relacionada a entradas e outra relacionada a saídas:


  1. A questão de entrada : Os desenvolvedores devem obter permissão e/ou pagar uma licença aos detentores de direitos para usar seu material protegido por direitos autorais no processo de treinamento de uma IA?


  1. A questão da saída : se um produto de IA generativo gera uma saída que se parece com uma obra criada por um artista humano, o titular do direito pode fazer reivindicações de infração contra o provedor?


Não sou um especialista em leis de direitos autorais dos EUA, apenas um observador com uma posição neutra sobre as questões. Com base em minha pesquisa, acredito que a resposta para a primeira pergunta seja "não", enquanto a segunda pergunta é mais problemática de responder e pode depender de uma avaliação caso a caso.


Duvido muito que esta ação coletiva nos forneça qualquer resposta.


Outro caso pendente de direitos autorais relativo ao uso e distribuição de imagens pela Stable Diffusion foi arquivado pelo gigante de banco de imagens Getty Images em fevereiro deste ano.


O processo da Getty Images, na minha opinião, tem uma chance muito maior de ir ao tribunal e contribuir para o entendimento legal de direitos autorais versus IA generativa.


A principal diferença em uma frase: o processo da Getty Images está mais bem documentado. A Getty Images pode provar seus direitos e apontar violações específicas de seus direitos, enquanto os artistas por trás da ação coletiva não podem.


Infelizmente, a reclamação coletiva dos artistas está repleta de erros rudimentares e suposições erradas sobre como o Stable Diffusion foi treinado e como o modelo gera imagens.


Um grupo de entusiastas de tecnologia criou um site http://www.stablediffusionfrivolous.com/ onde aponta algumas das imprecisões técnicas na reclamação.


Aqui, vou me concentrar em como os artistas abordam, ou melhor, deixam de abordar as duas questões jurídicas mencionadas acima.

A pergunta de entrada

Aqui está uma citação da reclamação (¶57-58), onde os artistas oferecem suas opiniões sobre a questão de entrada:


“A estabilidade raspou e, portanto, copiou mais de cinco bilhões de imagens de sites como imagens de treinamento usadas como dados de treinamento para difusão estável.


A Stability não buscou o consentimento dos criadores das imagens de treinamento ou dos sites que as hospedavam de onde foram extraídas.


A Stability não tentou negociar licenças para nenhuma das imagens de treinamento. A estabilidade simplesmente os levou. A estabilidade incorporou e armazenou cópias compactadas das imagens de treinamento na difusão estável.”


A primeira versão do Stable Diffusion foi treinada com “ filtrado por CLIP ” pares imagem-texto do banco de dados público LAION-5B.


LAION-5B contém informações sobre 5,85 bilhões de imagens e é o maior banco de dados do gênero. Foi desenvolvido pela organização alemã sem fins lucrativos LAION (um acrônimo para Large-scale Artificial Intelligence Open Network), e a Stability AI ajudou a financiar seu desenvolvimento.


É importante notar que não há imagens reais armazenadas no LAION-5B. Em vez disso, as informações sobre cada imagem são armazenadas e consistem em:


  • Um link de URL para o site da imagem
  • Uma breve descrição de texto do que a imagem representa
  • Altura e largura da imagem
  • A semelhança percebida com outras imagens
  • uma pontuação de probabilidade de quão provável é que a imagem seja “insegura” (pornográfica/NSFW)
  • uma pontuação de probabilidade de quão provável é que a imagem tenha uma marca d'água


A alegação dos artistas de que a Stable Diffusion “armazena cópias compactadas” de sua arte é, portanto, um equívoco. Na verdade, o conjunto de dados de treinamento do Stable Diffusion consiste em metadados sobre algumas das imagens dos artistas, e esses metadados não são protegidos por direitos autorais.


Da mesma forma, uma música no Spotify é protegida por direitos autorais, mas os metadados sobre ela, como nome do artista, título da música, produtor, data de lançamento, gênero e duração da faixa, não. Isso porque a recuperação desses dados é um processo puramente mecânico que não requer nenhum esforço criativo.


Como um conjunto de dados público, o LAION-5B pode ser examinado por qualquer pessoa interessada. A empresa Desova criou uma ferramenta de pesquisa haveibeentrained.com onde as pessoas podem pesquisar no LAION-5B para ver se suas imagens estão incluídas no conjunto de dados.


Foi o que fizeram as três artistas, Sarah Andersen, Kelly McKernan e Karla Ortiz, que encontraram respectivamente mais de 200, mais de 30 e mais de 12 representações de suas obras.


Especificamente, a difusão estável foi inicialmente treinado com 2,3 bilhões de imagens de um subconjunto de LAION-5B chamado LAION-2B-EN que contém apenas imagens com descrições de texto em inglês.


Considerando o tamanho dos dados de treinamento do Stable Diffusions, as contribuições involuntárias feitas pelos três artistas são pequenas gotas em um vasto oceano.


Em comparação, o processo da Getty Images contra a Stability AI dizia respeito mais de 12 milhões de fotografias de sua coleção que ainda é uma parte minúscula de todo o conjunto de dados.


De todas as obras dos artistas, apenas 16 imagens foram registradas no escritório de direitos autorais dos Estados Unidos por Sarah Andersen.


Decorre do 17 USC § 411(a), que “ nenhuma ação civil por violação de direitos autorais em qualquer trabalho dos Estados Unidos deve ser instituída até que o pré-registro ou registro da reivindicação de direitos autorais tenha sido feito (..)”.


Em outras palavras, se uma obra não estiver registrada no escritório de direitos autorais dos Estados Unidos, o detentor do direito geralmente não pode fazer reivindicações de infração em uma ação civil. Isso significa que os artistas só podem fazer reivindicações em nome das 16 obras de propriedade e registradas por Sarah Andersen.


Se ao menos os artistas pudessem provar que a Stable Diffusion às vezes pode gerar saídas que se assemelham a qualquer uma dessas 16 imagens, os artistas talvez pudessem argumentar sobre “a questão da saída”. Mas, como veremos, eles são incapazes de fazê-lo.

A Questão de Saída

Em relação à questão da saída, os artistas sugerem que toda saída gerada pelo Stable Diffusion é essencialmente derivada de seus dados de treinamento e, portanto, violação de direitos autorais (consulte ¶94-95). Essa teoria jurídica é extremamente rebuscada.


Abaixo está uma ilustração do artigo do professor de direito Matthew Sag “ Segurança de direitos autorais para IA generativa . ” As 15 imagens à esquerda são de dados de treinamento Stable Diffusions com as tags “branco”, “café” e “xícara”.


As imagens à direita foram geradas pelo Stable Diffusion com o prompt de texto "xícaras de café em fundo branco". De acordo com a lógica dos artistas, todas as imagens à direita infringiriam os direitos autorais das imagens à esquerda.


Embora as imagens claramente não pareçam substancialmente semelhantes.

Sob certas condições raras, foi comprovado que a difusão estável pode, de fato, gerar imagens de saída muito semelhantes às imagens de seu conjunto de dados de treinamento.


Isso é especialmente provável de acontecer quando a imagem de treinamento de entrada é amplamente distribuída na Internet e ocorre repetidamente nos dados de treinamento do Stable Diffusion.


Em um artigo recente intitulado Extraindo dados de treinamento de modelos de difusão, Nicholas Carlini e seus coautores identificaram 350.000 das imagens mais duplicadas nos dados de treinamento Stable Diffusions.


Posteriormente, eles geraram 500 novas imagens via difusão estável com prompts de texto idênticos às descrições de texto associadas a cada uma das imagens de dados de treinamento.


Como se viu, das 175 milhões de imagens (350.000 * 500), apenas 109 das imagens (0,03%) poderiam ser razoavelmente consideradas "quase-cópias".


Assim, infrações de direitos autorais podem acontecer, mas os artistas não trazem nenhum exemplo de como o Stable Diffusion copiou seu trabalho. Pelo contrário, eles escrevem na reclamação ¶ 93:


“ Em geral, nenhuma das imagens de saída de difusão estável fornecidas em resposta a um prompt de texto específico provavelmente será uma correspondência próxima de qualquer imagem específica nos dados de treinamento.


Os artistas afirmam que o Stable Diffusion é capaz de imitar seus estilos artísticos pessoais. Normalmente, um “estilo artístico” não pode estar sujeito à proteção de direitos autorais. As reivindicações de infração sempre devem estar vinculadas a infrações de obras específicas.


No entanto, há uma questão legítima aqui que recebeu uma quantidade razoável de atenção do público. Os modelos generativos de IA podem copiar os estilos distintos de artistas famosos em segundos, indefinidamente e com custo quase zero.


Para resolver esse problema, a Stability AI removeu os nomes de artistas famosos das gravadoras em seu conjunto de dados como parte de uma atualização de novembro do ano passado . Isso significa que a Stable Diffusion não pode mais imitar os estilos artísticos das pessoas.


Se você, por exemplo, pedir ao Stable Diffusion para criar uma imagem no estilo de Picasso ou Rembrandt, ele não poderá mais fazê-lo. A mudança foi iniciada dois meses antes da ação coletiva.


No geral, não está claro como e por que os artistas acreditam que a Stable Diffusion copia seu trabalho. Os artistas parecem mais preocupados em como o Stable Diffusion pode ameaçar seus empregos no futuro, e menos preocupados em como o Stable Diffusion realmente funciona agora.


Uma das três artistas, Sarah Andersen, escreveu em um artigo do NY Times de dezembro do ano passado:


“Tenho brincado com vários geradores e até agora nenhum imitou meu estilo de uma forma que pudesse ameaçar diretamente minha carreira, um fato que quase certamente mudará à medida que a IA continuar a melhorar.”


Abaixo estão duas ilustrações do artigo, uma de Sarah Andersen e outra de Stable Diffusion. Você provavelmente pode adivinhar qual foi criado por quem.

Pensamento final

Em dezembro de 2022, Estabilidade AI anunciada que eles haviam feito parceria com a Spawning, a empresa por trás haveibeentrained.com , e agora forneceria aos artistas a opção de aceitar ou não ter seus trabalhos usados como material de treinamento para a próxima versão do Stable Diffusion.


Embora a iniciativa pode não ser perfeito , pode ser considerado um passo na direção certa para qualquer artista que se preocupe em alimentar seus trabalhos com grandes modelos de fundação.


Antes da ação coletiva, Karla Ortiz conversou com o MIT Technology Review sobre a nova função de exclusão, e ela não achou que a Stability AI foi longe o suficiente:


“A única coisa que o Stability.AI pode fazer é o desmembramento algorítmico, onde eles destroem completamente seu banco de dados e destroem completamente todos os modelos que contêm todos os nossos dados”


Esta afirmação é muito reveladora. Os três artistas por trás da lei de ação coletiva, junto com Matthew Butterick e o resto de sua representação legal, fingem defender os direitos do artista, mas na verdade são modernos luditas .