paint-brush
Demandas colectivas contra empresas de inteligencia artificial, luditas modernos y máspor@futuristiclawyer
165 lecturas

Demandas colectivas contra empresas de inteligencia artificial, luditas modernos y más

por Futuristic Lawyer9m2023/06/23
Read on Terminal Reader

Demasiado Largo; Para Leer

Pessimistic Archive es un boletín basado en recortes de periódicos antiguos. Las generaciones pasadas expresan sus preocupaciones sobre el futuro y las nuevas tecnologías. Tres artistas visuales independientes han ido tan lejos como para presentar una demanda colectiva contra Stable Diffusion. La demanda esencialmente se enfrenta a todos los modelos de IA generativos entrenados con datos protegidos por derechos de autor.
featured image - Demandas colectivas contra empresas de inteligencia artificial, luditas modernos y más
Futuristic Lawyer HackerNoon profile picture

Introducción

Archivo pesimista es un boletín basado en recortes de periódicos antiguos donde las generaciones pasadas expresan sus preocupaciones sobre el futuro y las nuevas tecnologías.


En 1859, el poeta francés Charles Baudelaire describió la fotografía como*“el refugio de todo aspirante a pintor, de todo pintor demasiado mal dotado o demasiado perezoso para completar sus estudios”* y abrazarlo era un signo de “ceguera” e “imbecilidad”.


En 1906, un escritor llamado cartas de amor escritas con una máquina de escribir la producción más “a sangre fría, mecánica, poco romántica que se pueda imaginar ”, mientras que otro escritor decía que “ la chica que aguanta una carta de amor escrita a máquina, aguanta cualquier cosa ”.


En el siglo pasado, titulares de periódicos que llamen la atención advertía contra la lectura en la cama, los males del patinaje sobre ruedas, la “cara de bicicleta” que se atribuía a “ la tensión nerviosa ejercida sobre el ciclista para mantener el equilibrio”, y la Sociedad Estadounidense de Compositores, Autores y Editores demostró con gráficos cómo “ El cine sonoro, la radio y el fonógrafo ” habían “ asesinado la música.


Avance rápido hasta 2023, tenemos la llamada inteligencia artificial. Puede generar sin problemas y en segundos texto, imágenes, videos y música a partir de indicaciones de texto. Muchos artistas están preocupados.


Tres artistas visuales independientes, Sarah Andersen, Kelly Mckernan y Karla Ortiz, han ido tan lejos como para presentar una demanda colectiva contra Stable Diffusion con la ayuda del abogado Matthew Butterick y los litigantes del bufete de abogados Joseph Saveri.


Matthew Butterick ya es una figura conocida en "la batalla legal de los derechos de autor contra la IA" de otra demanda colectiva contra CoPilot de Github , una herramienta de IA generativa para la generación de código.

La demanda colectiva

En mi última publicación , Escribí sobre el generador de imágenes de IA de código abierto, Stable Diffusion. La demanda colectiva está dirigida contra el propietario de Stable Diffusion, Stability AI, otra famosa compañía de imágenes de IA, Midjourney, y la comunidad de arte en línea, DevianArt.


Sin embargo, la queja del demandante está formulada en un ámbito amplio y esencialmente se enfrenta a todos los modelos generativos de IA entrenados en datos protegidos por derechos de autor, que son todos los grandes, y en cantidades gigantescas.


En efecto, si la corte federal de San Francisco decide escuchar el caso el 19 de julio, a pesar de las mociones de los acusados para desestimar , la decisión de la corte podría impactar masivamente a industria multimillonaria .


En general, el trío de artistas detrás de la demanda colectiva está tratando de imponer un "sí" a dos preguntas difíciles de derechos de autor que plantean los modelos generativos de IA: una relacionada con las entradas y otra relacionada con las salidas:


  1. La pregunta de entrada : ¿Deberían los desarrolladores obtener permiso y/o pagar una licencia a los titulares de derechos por usar su material protegido por derechos de autor en el proceso de capacitación de una IA?


  1. La pregunta de salida : si un producto de IA generativa genera una salida que se parece a una obra creada por un artista humano, ¿puede el titular de los derechos presentar reclamaciones de infracción contra el proveedor?


No soy un experto en la ley de derechos de autor de EE. UU., solo un observador con una postura neutral sobre las preguntas. Según mi investigación, creo que la respuesta a la primera pregunta es "no", mientras que la segunda pregunta es más problemática de responder y puede depender de una evaluación caso por caso.


Dudo mucho que esta demanda colectiva nos proporcione alguna respuesta.


Otro caso pendiente de derechos de autor relacionado con el uso y la distribución de imágenes por parte de Stable Diffusion fue presentada por el gigante de las imágenes de stock Getty Images en febrero de este año.


En mi opinión, la demanda de Getty Images tiene muchas más posibilidades de ir a los tribunales y contribuir a la comprensión legal de los derechos de autor frente a la IA generativa.


La principal diferencia en una frase: la demanda de Getty Images está mejor documentada. Getty Images puede probar sus derechos y señalar infracciones específicas de sus derechos, mientras que los artistas detrás de la demanda colectiva no pueden.


Desafortunadamente, la demanda colectiva de los artistas está plagada de errores rudimentarios y suposiciones erróneas sobre cómo se entrenó Stable Diffusion y cómo el modelo genera imágenes.


Un grupo de entusiastas de la tecnología ha creado un sitio web http://www.stablediffusionfrivolous.com/ donde señalan algunas de las inexactitudes técnicas de la queja.


Aquí, me centraré en cómo los artistas abordan, o mejor dicho, cómo dejan de abordar, las dos cuestiones legales como se indicó anteriormente.

La pregunta de entrada

Aquí hay una cita de la demanda (¶57-58), donde los artistas ofrecen sus puntos de vista sobre la pregunta de entrada:


“Stability raspó y, por lo tanto, copió más de cinco mil millones de imágenes de sitios web como imágenes de entrenamiento utilizadas como datos de entrenamiento para Stable Diffusion.


Stability no buscó el consentimiento de los creadores de las Imágenes de entrenamiento ni de los sitios web que las alojaron de los cuales fueron extraídas.


Stability no intentó negociar licencias para ninguna de las imágenes de entrenamiento. La estabilidad simplemente se los llevó. Stability ha incrustado y almacenado copias comprimidas de las imágenes de entrenamiento dentro de Stable Diffusion”.


La primera versión de Stable Diffusion fue entrenada con “ CLIP-filtrado ” pares imagen-texto de la base de datos pública LAION-5B.


LAION-5B contiene información sobre 5850 millones de imágenes y es la base de datos más grande de su tipo. Fue desarrollado por la organización alemana sin fines de lucro LAION (acrónimo de Red abierta de inteligencia artificial a gran escala), y Stability AI ayudó a financiar su desarrollo.


Es importante tener en cuenta que no hay imágenes reales almacenadas en LAION-5B. En cambio, la información sobre cada imagen se almacena y consiste en:


  • Un enlace URL al sitio web de la imagen.
  • Una breve descripción de texto de lo que representa la imagen.
  • Alto y ancho de la imagen.
  • La similitud percibida con otras imágenes.
  • una puntuación de probabilidad de la probabilidad de que la imagen sea "insegura" (pornográfica/NSFW)
  • una puntuación de probabilidad de la probabilidad de que la imagen tenga una marca de agua


La afirmación de los artistas de que Stable Diffusion “almacena copias comprimidas” de su arte es, por lo tanto, un nombre inapropiado. En realidad, el conjunto de datos de entrenamiento de Stable Diffusion consta de metadatos sobre algunas de las imágenes de los artistas, y esos metadatos en sí mismos no están protegidos por derechos de autor.


De la misma manera, una canción en Spotify está protegida por derechos de autor, pero los metadatos sobre ella, como el nombre del artista, el título de la canción, el productor, la fecha de lanzamiento, el género y la duración de la pista, no lo están. Esto se debe a que recuperar estos datos es un proceso puramente mecánico que no requiere ningún esfuerzo creativo.


Como conjunto de datos público, LAION-5B puede ser examinado por cualquier persona interesada. La empresa Desove ha creado una herramienta de búsqueda hanibeentrained.com donde las personas pueden buscar a través de LAION-5B para ver si sus imágenes están incluidas en el conjunto de datos.


Así lo hicieron las tres artistas, Sarah Andersen, Kelly McKernan y Karla Ortiz, y encontraron respectivamente más de 200, más de 30 y más de 12 representaciones de su obra.


Específicamente, Stable Diffusion fue inicialmente entrenado con 2.300 millones de imágenes de un subconjunto de LAION-5B llamado LAION-2B-EN que solo contiene imágenes con descripciones de texto en inglés.


Teniendo en cuenta el tamaño de los datos de entrenamiento de Stable Diffusions, las contribuciones involuntarias realizadas por los tres artistas son pequeñas gotas en un vasto océano.


En comparación, la demanda de Getty Images contra Stability AI se refería más de 12 millones de fotografías de su colección que sigue siendo una parte minúscula de todo el conjunto de datos.


De todas las obras de los artistas, solo 16 imágenes han sido registradas en la oficina de derechos de autor de EE. UU. por Sarah Andersen.


De 17 USC § 411(a) se desprende que “ no se iniciará ninguna acción civil por infracción de los derechos de autor en cualquier obra de los Estados Unidos hasta que se haya realizado el prerregistro o el registro de la reclamación de derechos de autor (...)”.


En otras palabras, si una obra no está registrada en la oficina de derechos de autor de EE. UU., el titular de los derechos generalmente no puede presentar reclamos por infracción en una demanda civil. Esto significa que los artistas solo pueden presentar reclamos en nombre de las 16 obras que pertenecen y están registradas por Sarah Andersen.


Si tan solo los artistas pudieran demostrar que Stable Diffusion a veces puede generar resultados que se asemejan a cualquiera de estas 16 imágenes, los artistas tal vez podrían presentar un caso sobre "la cuestión del resultado". Pero como veremos, son incapaces de hacerlo.

La pregunta de salida

Con respecto a la pregunta de salida, los artistas sugieren que cada salida que genera Stable Diffusion se deriva esencialmente de sus datos de entrenamiento y, por lo tanto, infringe los derechos de autor (ver ¶94-95). Esta teoría legal es extremadamente descabellada.


A continuación se muestra una ilustración del artículo del profesor de derecho Matthew Sag " Seguridad de los derechos de autor para la IA generativa . Las 15 imágenes a la izquierda son de datos de entrenamiento de Stable Diffusions con las etiquetas "blanco", "café" y "taza".


Las imágenes de la derecha fueron generadas por Stable Diffusion con el texto "tazas de café sobre fondo blanco". Según la lógica de los artistas, todas las imágenes de la derecha infringirían los derechos de autor de las imágenes de la izquierda.


Aunque las imágenes claramente no se ven sustancialmente similares.

Bajo ciertas condiciones excepcionales, se ha demostrado que Stable Diffusion, de hecho, puede generar imágenes de salida que se parecen mucho a las imágenes de su conjunto de datos de entrenamiento.


Esto es especialmente probable que suceda cuando la imagen de entrenamiento de entrada se distribuye ampliamente en Internet y se repite una y otra vez en los datos de entrenamiento de Stable Diffusion.


En un artículo reciente titulado Extracción de datos de entrenamiento de modelos de difusión, Nicholas Carlini y sus coautores identificaron 350 000 de las imágenes más duplicadas en los datos de entrenamiento de Stable Diffusions.


A partir de entonces, generaron 500 nuevas imágenes a través de Stable Diffusion con indicaciones de texto idénticas a las descripciones de texto asociadas con cada una de las imágenes de datos de entrenamiento.


Al final resultó que, de los 175 millones de imágenes (350.000*500), solo 109 de las imágenes (0,03 %) podrían considerarse razonablemente "casi copias".


Por lo tanto, pueden ocurrir infracciones de derechos de autor, pero los artistas no mencionan ningún ejemplo de cómo Stable Diffusion ha copiado su trabajo. Por el contrario, escriben en la demanda ¶ 93:


“ En general, es probable que ninguna de las imágenes de salida de difusión estable proporcionadas en respuesta a un mensaje de texto en particular coincida con ninguna imagen específica en los datos de entrenamiento.


Los artistas afirman que Stable Diffusion es capaz de imitar sus estilos artísticos personales. Normalmente, un “estilo artístico” no puede estar sujeto a la protección de derechos de autor. Las reclamaciones por infracción siempre tienen que estar vinculadas a infracciones de obras específicas.


Sin embargo, aquí hay un problema legítimo que ha recibido una buena cantidad de atención pública. Los modelos generativos de IA pueden copiar los estilos distintivos de artistas famosos en segundos, indefinidamente y con costos cercanos a cero.


Para resolver este problema, Stability AI eliminó los nombres de artistas famosos de las etiquetas en su conjunto de datos. como parte de una actualización de noviembre del año pasado . Esto significa que Stable Diffusion ya no puede imitar los estilos artísticos de las personas.


Si, por ejemplo, le pide a Stable Diffusion que cree una imagen al estilo de Picasso o Rembrandt, ya no podrá hacerlo. El cambio se inició dos meses antes de la demanda colectiva.


En general, no está claro cómo y por qué los artistas creen que Stable Diffusion copia su trabajo. Los artistas parecen más preocupados por cómo Stable Diffusion podría amenazar sus trabajos en el futuro, y menos preocupados por cómo Stable Diffusion realmente funciona ahora.


Una de las tres artistas, Sarah Andersen, escribió en un artículo del NY Times desde diciembre del año pasado:


“He estado jugando con varios generadores, y hasta ahora ninguno ha imitado mi estilo de una manera que pueda amenazar directamente mi carrera, un hecho que casi seguramente cambiará a medida que la IA continúe mejorando”.


A continuación se muestran dos ilustraciones del artículo, una de Sarah Andersen y otra de Stable Diffusion. Probablemente puedas adivinar cuál fue creado por quién.

Pensamiento final

En diciembre de 2022, Estabilidad AI anunciada que se habían asociado con Spawning, la compañía detrás hanibeentrained.com , y ahora brindaría a los artistas la opción de optar por que sus obras se utilicen como material de capacitación para la próxima versión de Stable Diffusion.


Aunque la iniciativa puede que no sea perfecto , podría considerarse un paso en la dirección correcta para cualquier artista que esté preocupado por alimentar con su obra a grandes modelos de fundación.


Antes de la demanda colectiva, Karla Ortiz habló con MIT Technology Review sobre la nueva función de exclusión, y no creía que Stability AI fuera lo suficientemente lejos:


"Lo único que Stability.AI puede hacer es la devolución algorítmica en la que destruyen por completo su base de datos y destruyen por completo todos los modelos que contienen todos nuestros datos".


Esta afirmación es muy reveladora. Los tres artistas detrás de la ley de demanda colectiva, junto con Matthew Butterick y el resto de su representación legal, pretenden defender los derechos del artista, pero en realidad son modernos. luditas .