Em 1859, o poeta francês
Em 1906,
No século passado,
Avançando para 2023, temos a chamada inteligência artificial. Ele pode gerar texto, imagens, vídeos e músicas perfeitamente e em segundos a partir de prompts de texto. Muitos artistas estão preocupados.
Três artistas visuais independentes - Sarah Andersen, Kelly Mckernan e Karla Ortiz - chegaram a registrar
Matthew Butterick já é uma figura conhecida na “batalha legal dos direitos autorais contra a IA” de
No entanto, a reclamação do queixoso é formulada em um escopo amplo e está essencialmente assumindo todos os modelos de IA generativa treinados em dados protegidos por direitos autorais - que são todos os grandes, e em quantidades gigantescas.
Com efeito, se o tribunal federal de São Francisco decidir julgar o caso em 19 de julho, apesar
No geral, o trio de artistas por trás do processo de ação coletiva está tentando impor um "sim" a duas questões difíceis de direitos autorais que os modelos generativos de IA dão origem - uma relacionada a entradas e outra relacionada a saídas:
Não sou um especialista em leis de direitos autorais dos EUA, apenas um observador com uma posição neutra sobre as questões. Com base em minha pesquisa, acredito que a resposta para a primeira pergunta seja "não", enquanto a segunda pergunta é mais problemática de responder e pode depender de uma avaliação caso a caso.
Duvido muito que esta ação coletiva nos forneça qualquer resposta.
Outro caso pendente de direitos autorais relativo ao uso e distribuição de imagens pela Stable Diffusion
O processo da Getty Images, na minha opinião, tem uma chance muito maior de ir ao tribunal e contribuir para o entendimento legal de direitos autorais versus IA generativa.
A principal diferença em uma frase: o processo da Getty Images está mais bem documentado. A Getty Images pode provar seus direitos e apontar violações específicas de seus direitos, enquanto os artistas por trás da ação coletiva não podem.
Infelizmente, a reclamação coletiva dos artistas está repleta de erros rudimentares e suposições erradas sobre como o Stable Diffusion foi treinado e como o modelo gera imagens.
Um grupo de entusiastas de tecnologia criou um site http://www.stablediffusionfrivolous.com/ onde aponta algumas das imprecisões técnicas na reclamação.
Aqui, vou me concentrar em como os artistas abordam, ou melhor, deixam de abordar as duas questões jurídicas mencionadas acima.
Aqui está uma citação da reclamação (¶57-58), onde os artistas oferecem suas opiniões sobre a questão de entrada:
“A estabilidade raspou e, portanto, copiou mais de cinco bilhões de imagens de sites como imagens de treinamento usadas como dados de treinamento para difusão estável.
A Stability não buscou o consentimento dos criadores das imagens de treinamento ou dos sites que as hospedavam de onde foram extraídas.
A Stability não tentou negociar licenças para nenhuma das imagens de treinamento. A estabilidade simplesmente os levou. A estabilidade incorporou e armazenou cópias compactadas das imagens de treinamento na difusão estável.”
A primeira versão do Stable Diffusion foi treinada com “
LAION-5B contém informações sobre 5,85 bilhões de imagens e é o maior banco de dados do gênero. Foi desenvolvido pela organização alemã sem fins lucrativos LAION (um acrônimo para Large-scale Artificial Intelligence Open Network), e a Stability AI ajudou a financiar seu desenvolvimento.
É importante notar que não há imagens reais armazenadas no LAION-5B. Em vez disso, as informações sobre cada imagem são armazenadas e consistem em:
A alegação dos artistas de que a Stable Diffusion “armazena cópias compactadas” de sua arte é, portanto, um equívoco. Na verdade, o conjunto de dados de treinamento do Stable Diffusion consiste em metadados sobre algumas das imagens dos artistas, e esses metadados não são protegidos por direitos autorais.
Da mesma forma, uma música no Spotify é protegida por direitos autorais, mas os metadados sobre ela, como nome do artista, título da música, produtor, data de lançamento, gênero e duração da faixa, não. Isso porque a recuperação desses dados é um processo puramente mecânico que não requer nenhum esforço criativo.
Como um conjunto de dados público, o LAION-5B pode ser examinado por qualquer pessoa interessada. A empresa
Foi o que fizeram as três artistas, Sarah Andersen, Kelly McKernan e Karla Ortiz, que encontraram respectivamente mais de 200, mais de 30 e mais de 12 representações de suas obras.
Especificamente, a difusão estável foi inicialmente
Considerando o tamanho dos dados de treinamento do Stable Diffusions, as contribuições involuntárias feitas pelos três artistas são pequenas gotas em um vasto oceano.
Em comparação, o processo da Getty Images contra a Stability AI dizia respeito
De todas as obras dos artistas, apenas 16 imagens foram registradas no escritório de direitos autorais dos Estados Unidos por Sarah Andersen.
Decorre do 17 USC § 411(a), que “ nenhuma ação civil por violação de direitos autorais em qualquer trabalho dos Estados Unidos deve ser instituída até que o pré-registro ou registro da reivindicação de direitos autorais tenha sido feito (..)”.
Em outras palavras, se uma obra não estiver registrada no escritório de direitos autorais dos Estados Unidos, o detentor do direito geralmente não pode fazer reivindicações de infração em uma ação civil. Isso significa que os artistas só podem fazer reivindicações em nome das 16 obras de propriedade e registradas por Sarah Andersen.
Se ao menos os artistas pudessem provar que a Stable Diffusion às vezes pode gerar saídas que se assemelham a qualquer uma dessas 16 imagens, os artistas talvez pudessem argumentar sobre “a questão da saída”. Mas, como veremos, eles são incapazes de fazê-lo.
Em relação à questão da saída, os artistas sugerem que toda saída gerada pelo Stable Diffusion é essencialmente derivada de seus dados de treinamento e, portanto, violação de direitos autorais (consulte ¶94-95). Essa teoria jurídica é extremamente rebuscada.
Abaixo está uma ilustração do artigo do professor de direito Matthew Sag “
As imagens à direita foram geradas pelo Stable Diffusion com o prompt de texto "xícaras de café em fundo branco". De acordo com a lógica dos artistas, todas as imagens à direita infringiriam os direitos autorais das imagens à esquerda.
Embora as imagens claramente não pareçam substancialmente semelhantes.
Sob certas condições raras, foi comprovado que a difusão estável pode, de fato, gerar imagens de saída muito semelhantes às imagens de seu conjunto de dados de treinamento.
Isso é especialmente provável de acontecer quando a imagem de treinamento de entrada é amplamente distribuída na Internet e ocorre repetidamente nos dados de treinamento do Stable Diffusion.
Em um artigo recente intitulado
Posteriormente, eles geraram 500 novas imagens via difusão estável com prompts de texto idênticos às descrições de texto associadas a cada uma das imagens de dados de treinamento.
Como se viu, das 175 milhões de imagens (350.000 * 500), apenas 109 das imagens (0,03%) poderiam ser razoavelmente consideradas "quase-cópias".
Assim, infrações de direitos autorais podem acontecer, mas os artistas não trazem nenhum exemplo de como o Stable Diffusion copiou seu trabalho. Pelo contrário, eles escrevem na reclamação ¶ 93:
“ Em geral, nenhuma das imagens de saída de difusão estável fornecidas em resposta a um prompt de texto específico provavelmente será uma correspondência próxima de qualquer imagem específica nos dados de treinamento. ”
Os artistas afirmam que o Stable Diffusion é capaz de imitar seus estilos artísticos pessoais. Normalmente, um “estilo artístico” não pode estar sujeito à proteção de direitos autorais. As reivindicações de infração sempre devem estar vinculadas a infrações de obras específicas.
No entanto, há uma questão legítima aqui que recebeu
Para resolver esse problema, a Stability AI removeu os nomes de artistas famosos das gravadoras em seu conjunto de dados
Se você, por exemplo, pedir ao Stable Diffusion para criar uma imagem no estilo de Picasso ou Rembrandt, ele não poderá mais fazê-lo. A mudança foi iniciada dois meses antes da ação coletiva.
No geral, não está claro como e por que os artistas acreditam que a Stable Diffusion copia seu trabalho. Os artistas parecem mais preocupados em como o Stable Diffusion pode ameaçar seus empregos no futuro, e menos preocupados em como o Stable Diffusion realmente funciona agora.
Uma das três artistas, Sarah Andersen, escreveu em
“Tenho brincado com vários geradores e até agora nenhum imitou meu estilo de uma forma que pudesse ameaçar diretamente minha carreira, um fato que quase certamente mudará à medida que a IA continuar a melhorar.”
Abaixo estão duas ilustrações do artigo, uma de Sarah Andersen e outra de Stable Diffusion. Você provavelmente pode adivinhar qual foi criado por quem.
Em dezembro de 2022,
Embora a iniciativa
Antes da ação coletiva,
“A única coisa que o Stability.AI pode fazer é o desmembramento algorítmico, onde eles destroem completamente seu banco de dados e destroem completamente todos os modelos que contêm todos os nossos dados”
Esta afirmação é muito reveladora. Os três artistas por trás da lei de ação coletiva, junto com Matthew Butterick e o resto de sua representação legal, fingem defender os direitos do artista, mas na verdade são modernos