paint-brush
Sammelklagen gegen KI-Unternehmen, moderne Ludditen und mehrvon@futuristiclawyer
165 Lesungen

Sammelklagen gegen KI-Unternehmen, moderne Ludditen und mehr

von Futuristic Lawyer9m2023/06/23
Read on Terminal Reader
Read this story w/o Javascript

Zu lang; Lesen

Pessimistic Archive ist ein Newsletter, der auf Ausschnitten aus alten Zeitungen basiert. Frühere Generationen äußern ihre Sorgen über die Zukunft und neue Technologien. Drei unabhängige bildende Künstler haben sogar eine Sammelklage gegen Stable Diffusion eingereicht. Die Klage richtet sich im Wesentlichen gegen jedes generative KI-Modell, das auf urheberrechtlich geschützten Daten trainiert wird.
featured image - Sammelklagen gegen KI-Unternehmen, moderne Ludditen und mehr
Futuristic Lawyer HackerNoon profile picture

Einführung

Pessimistisches Archiv ist ein Newsletter, der auf Ausschnitten aus alten Zeitungen basiert und in denen frühere Generationen ihre Sorgen über die Zukunft und neue Technologien zum Ausdruck bringen.


Im Jahr 1859, französischer Dichter Charles Baudelaire beschrieb die Fotografie als*„die Zuflucht jedes angehenden Malers, jedes Malers, der zu schlecht begabt oder zu faul ist, um sein Studium abzuschließen“* und es ein Zeichen von „Blindheit“ und „Dummheit“ war, sie anzunehmen.


Im Jahr 1906, Ein Schriftsteller namens „Liebesbriefe“, geschrieben mit einer Schreibmaschine die „ kaltblütigste, mechanischste, unromantischste Produktion, die man sich vorstellen kann “, während ein anderer Autor sagte: „ Das Mädchen, das einen maschinengeschriebenen Liebesbrief ertragen wird, wird alles ertragen .“


Im vergangenen Jahrhundert Aufmerksamkeit erregende Zeitungsschlagzeilen warnte vor dem Lesen im Bett, den Übeln des Rollschuhlaufens, dem „Fahrradgesicht“, das auf „ die nervöse Belastung des Fahrers beim Halten seines Gleichgewichts“ zurückgeführt wurde, und die American Society of Composers, Authors and Publishers bewies anhand von Diagrammen, wie „ Die sprechenden Bilder, das Radio und der Phonograph “ hätten „ die Musik ermordet.“


Im Jahr 2023 haben wir die sogenannte künstliche Intelligenz. Es kann nahtlos und innerhalb von Sekunden Text, Bilder, Videos und Musik aus Textaufforderungen generieren. Viele Künstler sind besorgt.


Drei unabhängige bildende Künstler – Sarah Andersen, Kelly Mckernan und Karla Ortiz – haben den Antrag eingereicht eine Sammelklage gegen Stable Diffusion mit Hilfe von Anwalt Matthew Butterick und Prozessanwälten der Anwaltskanzlei Joseph Saveri.


Matthew Butterick ist bereits eine bekannte Figur im „juristischen Urheberrechtskampf gegen KI“ aus eine weitere Sammelklage gegen CoPilot von Github , ein generatives KI-Tool zur Codegenerierung.

Die Sammelklage

In meinem neuesten Beitrag Ich habe über den Open-Source-KI-Bildgenerator Stable Diffusion geschrieben. Die Sammelklage richtet sich gegen den Eigentümer von Stable Diffusion, Stability AI, ein weiteres bekanntes KI-Bildunternehmen, Midjourney, und die Online-Kunst-Community DevianArt.


Allerdings ist die Klage des Klägers weit gefasst und bezieht sich im Wesentlichen auf jedes generative KI-Modell, das auf urheberrechtlich geschützten Daten trainiert wird – was bei allen großen der Fall ist, und zwar in gigantischen Mengen.


Tatsächlich, wenn das Bundesgericht von San Francisco beschließt, den Fall trotzdem am 19. Juli zu verhandeln die Anträge der Beklagten auf Abweisung , könnte die Entscheidung des Gerichts massive Auswirkungen auf a haben Multi-Billionen-Dollar-Industrie .


Insgesamt versucht das Künstlertrio hinter der Sammelklage, zwei schwierige Urheberrechtsfragen, die generative KI-Modelle aufwerfen, mit „Ja“ zu beantworten – eine in Bezug auf Eingaben und eine in Bezug auf Ausgaben:


  1. Die Eingabefrage : Sollten Entwickler für die Nutzung ihres urheberrechtlich geschützten Materials im Trainingsprozess einer KI eine Erlaubnis einholen und/oder den Rechteinhabern eine Lizenz zahlen?


  1. Die Output-Frage : Wenn ein generatives KI-Produkt einen Output erzeugt, der einem von einem menschlichen Künstler geschaffenen Werk ähnelt, kann der Rechteinhaber dann Verletzungsansprüche gegen den Anbieter geltend machen?


Ich bin kein Experte für US-Urheberrecht, sondern lediglich ein Beobachter mit einer neutralen Haltung zu den Fragen. Aufgrund meiner Recherchen glaube ich, dass die Antwort auf die erste Frage „Nein“ lautet, während die zweite Frage problematischer zu beantworten ist und möglicherweise von einer Einzelfallbewertung abhängt.


Ich bezweifle stark, dass uns diese Sammelklage Antworten liefern wird.


Ein weiterer anhängiger Urheberrechtsfall bezüglich der Verwendung und Verbreitung von Bildern durch Stable Diffusion wurde vom Stockfoto-Giganten Getty Images eingereicht im Februar dieses Jahres.


Die Klage von Getty Images hat meiner Meinung nach eine viel bessere Chance, vor Gericht zu gehen und zum rechtlichen Verständnis von Urheberrechten im Vergleich zu generativer KI beizutragen.


Der Hauptunterschied in einem Satz: Die Klage von Getty Images ist besser dokumentiert. Im Gegensatz zu den Künstlern, die hinter der Sammelklage stehen, kann Getty Images ihre Rechte nachweisen und auf konkrete Rechtsverletzungen hinweisen.


Die Sammelklage der Künstler ist leider voller rudimentärer Fehler und falscher Annahmen darüber, wie Stable Diffusion trainiert wurde und wie das Modell Bilder generiert.


Eine Gruppe von Technikbegeisterten hat eine Website http://www.stablediffusionfrivolous.com/ erstellt, auf der sie auf einige der technischen Ungenauigkeiten in der Beschwerde hinweisen.


Hier werde ich mich darauf konzentrieren, wie die Künstler die beiden oben genannten rechtlichen Fragen angehen bzw. nicht ansprechen.

Die Eingabefrage

Hier ist ein Zitat aus der Beschwerde (§57-58), in der die Künstler ihre Ansichten zur Eingabefrage darlegen:


„Stability kratzte und kopierte dabei über fünf Milliarden Bilder von Websites als Trainingsbilder, die als Trainingsdaten für Stable Diffusion verwendet wurden.


Stability hat weder die Zustimmung der Ersteller der Schulungsbilder noch der Websites eingeholt, auf denen sie gehostet wurden und von denen sie gescrapt wurden.


Stability hat nicht versucht, Lizenzen für eines der Trainingsbilder auszuhandeln. Die Stabilität hat sie einfach gekostet. Stability hat komprimierte Kopien der Trainingsbilder in Stable Diffusion eingebettet und gespeichert.“


Die erste Version von Stable Diffusion wurde trainiert mit „ CLIP-gefiltert ” Bild-Text-Paare aus der öffentlichen Datenbank LAION-5B.


LAION-5B enthält Informationen über 5,85 Milliarden Bilder und ist die größte Datenbank ihrer Art. Es wurde von der deutschen Non-Profit-Organisation LAION (Abkürzung für Large-scale Artificial Intelligence Open Network) entwickelt und Stability AI half bei der Finanzierung seiner Entwicklung.


Es ist wichtig zu beachten, dass in LAION-5B keine tatsächlichen Bilder gespeichert sind. Stattdessen werden Informationen zu jedem Bild gespeichert und bestehen aus:


  • Ein URL-Link zur Website des Bildes
  • Eine kurze Textbeschreibung dessen, was das Bild darstellt
  • Höhe und Breite des Bildes
  • Die wahrgenommene Ähnlichkeit mit anderen Bildern
  • ein Wahrscheinlichkeitswert, der angibt, wie wahrscheinlich es ist, dass das Bild „unsicher“ (pornografisch/NSFW) ist
  • eine Wahrscheinlichkeitsbewertung, die angibt, wie wahrscheinlich es ist, dass das Bild ein Wasserzeichen aufweist


Die Behauptung der Künstler, dass Stable Diffusion „komprimierte Kopien“ ihrer Kunst speichert, ist daher eine Fehlbezeichnung. Tatsächlich besteht der Trainingsdatensatz von Stable Diffusion aus Metadaten über einige Bilder der Künstler, und diese Metadaten sind an sich nicht urheberrechtlich geschützt.


Ebenso ist ein Song auf Spotify urheberrechtlich geschützt, Metadaten darüber wie Künstlername, Songtitel, Produzent, Veröffentlichungsdatum, Genre und Titeldauer jedoch nicht. Denn das Abrufen dieser Daten ist ein rein mechanischer Prozess, der keinen kreativen Aufwand erfordert.


Als öffentlicher Datensatz kann LAION-5B von jedem Interessierten eingesehen werden. Das Unternehmen Laichen hat ein Suchtool erstellt haveibeentrained.com Hier können Benutzer LAION-5B durchsuchen, um zu sehen, ob ihre Bilder im Datensatz enthalten sind.


Das haben die drei Künstler Sarah Andersen, Kelly McKernan und Karla Ortiz getan und sie haben mehr als 200, mehr als 30 bzw. mehr als 12 Darstellungen ihrer Werke gefunden.


Konkret handelte es sich zunächst um eine stabile Diffusion trainiert mit 2,3 Milliarden Bildern aus einer Teilmenge von LAION-5B namens LAION-2B-EN, die nur Bilder mit Textbeschreibungen in Englisch enthält.


Angesichts der Größe der Stable Diffusions-Trainingsdaten sind die unabsichtlichen Beiträge der drei Künstler nur kleine Tropfen in einem riesigen Ozean.


Im Vergleich dazu ging es um die Klage von Getty Images gegen Stability AI mehr als 12 Millionen Fotografien aus ihrer Sammlung Das ist immer noch ein winziger Teil des gesamten Datensatzes.


Von allen Werken der Künstler wurden nur 16 Bilder von Sarah Andersen beim US-amerikanischen Urheberrechtsamt registriert.


Aus 17 USC § 411(a) folgt, dass „ keine Zivilklage wegen Verletzung des Urheberrechts an einem Werk der Vereinigten Staaten eingeleitet werden darf, bis eine Vorregistrierung oder Registrierung des Urheberrechtsanspruchs erfolgt ist (..)“.


Mit anderen Worten: Wenn ein Werk nicht beim US-amerikanischen Urheberrechtsamt registriert ist, kann der Rechteinhaber im Allgemeinen keine Verletzungsklagen in einer Zivilklage geltend machen. Dies bedeutet, dass die Künstler nur Ansprüche im Namen der 16 Werke geltend machen können, die Sarah Andersen gehören und bei ihr registriert sind.


Wenn die Künstler nur beweisen könnten, dass Stable Diffusion manchmal Ergebnisse erzeugen kann, die jedem dieser 16 Bilder ähneln, könnten die Künstler vielleicht eine Argumentation zur „Ausgabefrage“ vorbringen. Aber wie wir sehen werden, sind sie dazu nicht in der Lage.

Die Ausgabefrage

In Bezug auf die Ausgabefrage schlagen die Künstler vor, dass jede Ausgabe, die Stable Diffusion generiert, im Wesentlichen aus seinen Trainingsdaten abgeleitet ist und somit eine Urheberrechtsverletzung darstellt (siehe ¶94-95). Diese Rechtstheorie ist äußerst weit hergeholt.


Unten finden Sie eine Illustration aus der Arbeit von Juraprofessor Matthew Sag: „ Urheberrechtssicherheit für generative KI . „Die 15 Bilder auf der linken Seite stammen aus Trainingsdaten von Stable Diffusions mit den Tags „weiß“, „Kaffee“ und „Tasse“.


Die Bilder rechts wurden von Stable Diffusion mit der Textaufforderung „Kaffeetassen auf weißem Hintergrund“ generiert. Nach der Logik der Künstler würden alle Bilder rechts das Urheberrecht der Bilder links verletzen.


Obwohl die Bilder offensichtlich nicht im Wesentlichen ähnlich aussehen.

Unter bestimmten seltenen Bedingungen konnte nachgewiesen werden, dass Stable Diffusion tatsächlich Ausgabebilder erzeugen kann, die den Bildern aus dem Trainingsdatensatz sehr ähnlich sehen.


Dies ist insbesondere dann der Fall, wenn das eingegebene Trainingsbild im Internet weit verbreitet ist und in den Trainingsdaten von Stable Diffusion immer wieder vorkommt.


In einem kürzlich erschienenen Artikel mit dem Titel Extrahieren von Trainingsdaten aus Diffusionsmodellen, Nicholas Carlini und seine Co-Autoren identifizierten 350.000 der am häufigsten duplizierten Bilder in den Trainingsdaten von Stable Diffusions.


Anschließend generierten sie über Stable Diffusion 500 neue Bilder mit Textaufforderungen, die mit den Textbeschreibungen identisch waren, die den einzelnen Trainingsdatenbildern zugeordnet waren.


Wie sich herausstellte, konnten von den 175 Millionen Bildern (350.000*500) nur 109 der Bilder (0,03 %) vernünftigerweise als „Beinahe-Kopien“ betrachtet werden.


Dabei kann es zu Urheberrechtsverletzungen kommen, allerdings führen die Künstler keine Beispiele dafür an, wie Stable Diffusion ihre Werke kopiert hat. Im Gegenteil schreiben sie in der Beschwerde § 93:


Im Allgemeinen ist es wahrscheinlich, dass keines der Stable Diffusion-Ausgabebilder, die als Reaktion auf eine bestimmte Textaufforderung bereitgestellt werden, genau mit einem bestimmten Bild in den Trainingsdaten übereinstimmt.


Die Künstler behaupten, dass Stable Diffusion in der Lage sei, ihre persönlichen künstlerischen Stile nachzuahmen. Normalerweise kann ein „künstlerischer Stil“ nicht dem Urheberrechtsschutz unterliegen. Verletzungsansprüche müssen immer mit der Verletzung konkreter Werke verknüpft sein.


Allerdings liegt hier ein berechtigtes Problem vor ziemlich viel öffentliche Aufmerksamkeit. Generative KI-Modelle können die unverwechselbaren Stile berühmter Künstler in Sekundenschnelle, auf unbestimmte Zeit und nahezu ohne Kosten kopieren.


Um dieses Problem zu lösen, hat Stability AI die Namen berühmter Künstler aus den Labels in ihrem Datensatz entfernt als Teil eines Upgrades im November letzten Jahres . Dies bedeutet, dass Stable Diffusion die künstlerischen Stile anderer Menschen nicht mehr nachahmen kann.


Wenn Sie Stable Diffusion beispielsweise bitten, ein Bild im Stil von Picasso oder Rembrandt zu erstellen, ist dies nicht mehr möglich. Die Änderung wurde zwei Monate vor der Sammelklage eingeleitet.


Insgesamt ist unklar, wie und warum die Künstler glauben, dass Stable Diffusion ihre Werke kopiert. Die Künstler scheinen mehr darüber besorgt zu sein, wie Stable Diffusion ihre Arbeitsplätze in Zukunft gefährden könnte , und weniger darüber, wie Stable Diffusion jetzt tatsächlich funktioniert.


Eine der drei Künstlerinnen, Sarah Andersen, schrieb ein ein Artikel der NY Times vom Dezember letzten Jahres:


„Ich habe mit mehreren Generatoren herumgespielt, aber bisher hat keiner meinen Stil in einer Weise nachgeahmt, die meine Karriere direkt gefährden könnte, eine Tatsache, die sich mit ziemlicher Sicherheit ändern wird, wenn sich die KI weiter verbessert.“


Unten finden Sie zwei Illustrationen aus dem Artikel, eine von Sarah Andersen und eine von Stable Diffusion. Sie können wahrscheinlich erraten, welches von wem erstellt wurde.

Schlussgedanke

Im Dezember 2022, Stabilitäts-KI angekündigt dass sie mit Spawning, dem Unternehmen dahinter, eine Partnerschaft geschlossen hatten haveibeentrained.com , und würde Künstlern nun die Möglichkeit geben, der Verwendung ihrer Werke als Schulungsmaterial für die nächste Version von Stable Diffusion entweder zuzustimmen oder abzulehnen.


Obwohl die Initiative möglicherweise nicht perfekt , könnte dies als Schritt in die richtige Richtung für jeden Künstler angesehen werden, der daran interessiert ist, seine Arbeit an große Stiftungsmodelle weiterzugeben.


Vor der Sammelklage Karla Ortiz sprach mit MIT Technology Review über die neue Opt-out-Funktion, und sie fand, dass Stabilitäts-KI nicht weit genug ging:


„Das Einzige, was Stability.AI tun kann, ist die algorithmische Degorgierung, bei der sie ihre Datenbank und alle Modelle, die alle unsere Daten enthalten, vollständig zerstören.“


Diese Aussage ist sehr aufschlussreich. Die drei Künstler, die hinter dem Sammelklagegesetz stehen, geben zusammen mit Matthew Butterick und dem Rest ihrer Rechtsvertretung vor, für die Rechte des Künstlers einzutreten, sind aber in Wirklichkeit modern Ludditen .