paint-brush
Der Urheberrechtskampf gegen KI: Geschlossene vs. Open-Source-KIvon@futuristiclawyer
1,184 Lesungen
1,184 Lesungen

Der Urheberrechtskampf gegen KI: Geschlossene vs. Open-Source-KI

von Futuristic Lawyer6m2023/06/12
Read on Terminal Reader
Read this story w/o Javascript

Zu lang; Lesen

Der in Großbritannien ansässige Anwalt Chris Mammen erklärt kürzlich in einem Interview mit Vice über KI-generierte Musik, dass sich das Gesetz langsam bewegt und sich analog entwickelt. „Es entsteht etwas Neues, und wir finden heraus, wozu es analog ist, und dann wird das nach und nach zu festem Gesetz.“ Das Problem, mit dem wir derzeit bei generativer KI konfrontiert sind – KI-Modellen, die kreative Ergebnisse wie Texte, Bilder, Musik oder Videos generieren können – ist die Schwierigkeit, Analogien zu finden. Mit anderen Worten, generative KI mit etwas in Verbindung zu bringen, das wir bereits kennen und verstehen. Die zugrunde liegende Technologie ist so komplex, dass das Verständnis, wie sie auf konzeptioneller Ebene funktioniert und wie sie reguliert werden sollte, einer ernsthaften Erweiterung des Denkvermögens bedarf.

People Mentioned

Mention Thumbnail
featured image - Der Urheberrechtskampf gegen KI: Geschlossene vs. Open-Source-KI
Futuristic Lawyer HackerNoon profile picture
0-item
1-item

Der in Großbritannien ansässige Anwalt Chris Mammen erklärt kürzlich in einem Interview mit Vice über KI-generierte Musik , dass sich das Gesetz langsam bewegt und sich analog entwickelt. „ Es entsteht etwas Neues, und wir finden heraus, wozu es analog ist, und dann wird das nach und nach zu festem Gesetz .“

Das Problem, mit dem wir derzeit bei generativer KI konfrontiert sind – KI-Modellen, die kreative Ergebnisse wie Texte, Bilder, Musik oder Videos generieren können – ist die Schwierigkeit, Analogien zu finden. Mit anderen Worten, generative KI mit etwas in Verbindung zu bringen, das wir bereits kennen und verstehen. Die zugrunde liegende Technologie ist so komplex, dass das Verständnis, wie sie auf konzeptioneller Ebene funktioniert und wie sie reguliert werden sollte, einer ernsthaften Erweiterung des Denkvermögens bedarf.

Wie bei sozialen Medien und dem Internet sind KI-Modelle wie ChatGPT von OpenAI oder ihr Text-zu-Bild-Modell DALL-E 2 täuschend einfach zu verwenden. Dennoch gibt es offensichtlich eine Menge Dinge, die unter der Haube vor sich gehen und die wir nicht im Geringsten verstehen. In der Lücke zwischen der Benutzererfahrung und all den komplizierten technischen Dingen, die dahinter stehen, können kriminelle und unethische Dinge unbemerkt weitergehen.

Der Black-Box-Effekt in Krypto

Wir haben diesen „Black-Box-Effekt“ deutlich in der Finanzwelt gesehen, zuletzt im Kryptosektor. Nur wenige Krypto-Unterstützer, mich eingeschlossen, hatten ein tiefes technisches Verständnis dafür, wie Krypto funktioniert, und wir wussten nicht, wie die zentralisierten Börsen betrieben wurden. Im traditionellen Finanzwesen verlassen wir uns hier typischerweise auf die Bürgschaft und Aufsicht der Regierung. Aber in einer so neuen und komplexen Branche wie Krypto gab es fast keine. Die relativ breite Akzeptanz, die technische Komplexität, die mangelnde Kontrolle und die Wissenslücke zwischen Entwicklern und Nutzern schufen ideale Bedingungen für Kriminalität und Ausbeutung in großen Mengen. Letztes Jahr brachen Krypto-Börsen in einer Kaskade zusammen, im Jahr 2022 wurden über 3 Milliarden US-Dollar von DeFi-Plattformen gestohlen und Hunderttausende Menschen befanden sich im finanziellen Ruin.

Die KI-Branche unterscheidet sich natürlich stark von der Kryptoindustrie, aber es herrschen die gleichen Bedingungen für Kriminalität und Ausbeutung. KI-Modelle sind weit verbreitet, einfacher zu verwenden als Krypto, technisch komplexer, es gibt nicht viel Kontrolle und die Wissenslücke zwischen Benutzern und Entwicklern ist wohl noch größer als bei Krypto. Glücklicherweise gibt es viele Sensibilisierungskampagnen für die Gefahren und Risiken der KI, während ähnliche Kampagnen im Bereich Krypto im Lärm untergehen.

Das Urheberrechtsproblem

Die Verwendung von urheberrechtlich geschütztem Material in generativen KI-Modellen ist ein Bereich, in dem bestehende Gesetze und Rahmenbedingungen in Frage gestellt werden. In meinem Beitrag von letzter Woche habe ich über die Interpretation grundlegender Modelle durch die EU geschrieben. Diese Woche werde ich mich auf den Unterschied zwischen Closed-Source- und Open-Source-KI-Modellen konzentrieren und Stable Diffusion vorstellen, ein beliebtes Open-Source-KI-Bildmodell, das Anfang des Jahres aus zwei verschiedenen Blickwinkeln mit Urheberrechtsklagen konfrontiert wurde. Ich habe vor, in den nächsten Wochen einen weiteren Beitrag über die Klagen und die Auswirkungen auf das Urheberrecht zu veröffentlichen.

Open-Source vs. Closed-Source

Das Training von Fundamentmodellen ist eine kostspielige Angelegenheit im Hinblick auf Zeit, Geld und Rechenressourcen. Im Allgemeinen können sich nur BigTech-Unternehmen mit großen finanziellen Mitteln die Anfangsinvestition leisten. Aus dem gleichen Grund haben die Unternehmen hinter Stiftungsmodellen im Allgemeinen ein Interesse an Closed-Sourcing-KI. Die Multimillionen-Dollar-Kosten für Entwicklung und Schulung lassen sich nur schwer amortisieren, wenn die Wettbewerber auf alle Zutaten zugreifen und ihre geheime Soße verwenden können.

Eine wichtige Ausnahme ist Metas LLaMA, das Mark Zuckerberg und das KI-Forschungsteam von Meta kontrovers veröffentlichen wollten . LLaMA ist ein großes Sprachmodell (LLM), das in verschiedenen Größen von 7B bis 65B Parametern veröffentlicht wird. Selbst die kleine bis mittelgroße Version, LLaMA-13B, kann OpenAIs GPT-3 übertreffen – obwohl sie zehnmal kleiner ist. GPT-3 war erst vor drei Jahren bahnbrechend und marktführend.

Metas Chef-KI-Wissenschaftler Yann LeCun sagt, dass „die Plattform, die gewinnen wird, offen sein wird“. Er argumentiert, dass der Fortschritt in der KI auf diese Weise schneller sei und dass Verbraucher und Regierungen sich weigern würden, KI anzunehmen, es sei denn, sie liege außerhalb der Kontrolle von Unternehmen wie Google und Meta.

Das Gegenargument zur Open-Sourcing-KI (was bedeutet, den Quellcode verfügbar zu machen) besteht darin, dass schlechte Akteure den Code verwenden können, um schändliche Anwendungen zu erstellen, Fehlinformationen zu verbreiten, Betrug, Cyberkriminalität und viele andere schlechte Dinge zu begehen. Mark Zuckerberg erhielt kürzlich einen Brief von zwei US-Senatoren , die die Entscheidung, LLaMA der Öffentlichkeit zugänglich zu machen, kritisierten. Die Senatoren kamen in dem Brief zu dem Schluss, dass Metas „ Mangel an gründlicher öffentlicher Betrachtung der Auswirkungen seiner absehbaren weiten Verbreitung “ letztendlich ein „ schlechter Dienst für die Öffentlichkeit“ sei.

Der Drang zu Open-Source

Heute, weniger als drei Monate nach seiner Veröffentlichung , steht eine Reihe von Open-Source-Modellen auf den Schultern von LLaMa. Vicuna-13B ist beispielsweise ein Open-Source-Chatbot, der durch die Feinabstimmung von LLaMA auf von Benutzern geteilte Konversationen trainiert wurde, die von ShareGPT (einer Chrome-Erweiterung, die es Benutzern ermöglicht, ihre Konversationen mit ChatGPT zu teilen) gesammelt wurden. Laut Auswertungen von GPT-4 erreicht Vicuna-13B mehr als 90 % der Qualität von OpenAIs ChatGPT und Googles Bard bei einem Schulungsaufwand von rund 300 $!

Unabhängig von Wettbewerbs- und Sicherheitsbedenken gibt es eine starke Tendenz zur Open-Source-KI. Immer wieder kommen neue und verbesserte Modelle auf den Markt. Auf dem HuggingFace Open LLM Leaderboard ist das derzeit leistungsstärkste Modell Falcon 40B , das kürzlich Metas LLaMA entthront hat. Falcon 40B wurde vom Technology Innovation Institute of Abu Dhabi mit Hilfe von Amazon entwickelt.

Es ist noch unklar, ob die Open-Source-Entwicklung in Zukunft möglicherweise den Einsatz generativer KI dominieren könnte. In einem durchgesickerten internen Google-Dokument , das von SemiAnalysis veröffentlicht wurde, argumentierte ein leitender Google-Ingenieur, dass Google und OpenAI „keinen Burggraben haben“ und irgendwann durch Open-Source-KI verdrängt werden. Er schreibt, dass „ Open-Source-Modelle schneller, anpassbarer, privater und Pfund für Pfund leistungsfähiger sind “.

Stabilitäts-KI und stabile Diffusion

Eines der Unternehmen an vorderster Front der Open-Source-KI ist Stability AI . Das Unternehmen wurde vom ehemaligen Hedgefonds-Manager Emad Mostaque gegründet. Laut seiner Website hat Stability AI seit seiner Einführung im Jahr 2021 eine Armee von mehr als 140.000 Entwicklern und sieben Forschungszentren auf der ganzen Welt aufgebaut. Die Forschungsgemeinschaft entwickelt KI-Modelle für verschiedene Zwecke, beispielsweise Bildgebung, Sprache, Code, Audio, Video, 3D-Inhalte, Design, Biotechnologie und andere wissenschaftliche Forschung.

Das Produkt, für das Stability AI bislang am bekanntesten ist, ist das Bildmodell Stable Diffusion. Stable Diffusion ist ein KI-Bildmodell, das Bilder aus Textaufforderungen generieren oder optimieren kann. Es wurde im August 2022 veröffentlicht , nicht lange nachdem OpenAIs virale Internet-Sensation DALL-E 2 privat für 1 Million Benutzer auf der Warteliste veröffentlicht wurde. Viele in der KI-Community betrachteten Stable Diffusion als einen revolutionären Meilenstein . Es entsprach nicht nur den Fähigkeiten zeitgenössischer, großer und geschlossener Text-zu-Bild-Modelle wie DALL-E 2 oder Googles Imagen oder übertraf diese sogar, sondern war auch Open Source.

Gemäß der Stable Diffusions-Lizenz kann jeder das Modell verwenden, um kommerzielle Anwendungen zu erstellen, seine Architektur zu studieren, darauf aufzubauen und sein Design im Rahmen von Recht, Ethik und gesundem Menschenverstand zu ändern. Im Gegensatz zu Closed-Source-Bildmodellen kann Stable Diffusion heruntergeladen und lokal auf einem durchschnittlichen Gaming-PC ausgeführt werden. Für Gelegenheitsnutzer ohne Programmierkenntnisse kann Stable Diffusion auch über die Web-App DreamStudio oder die neue Open-Source-Web-App StableStudio aufgerufen werden.

Nebenbei wurde Stable Diffusion tatsächlich von einem Forscherteam der Ludwig-Maximilians-Universität in München entwickelt, während Stability AI die Rechenressourcen zum Trainieren des Modells finanzierte. Stability wurde dafür kritisiert, dass sie zu viel Anerkennung erhielt, da die Universität München alle schweren Arbeiten, die zu Stable Diffusion führten, erledigte. In einem am vergangenen Sonntag veröffentlichten Artikel von Forbes wurde der Gründer von Stability, Emad Mosque, als pathologischer Übertreiber mit einer Tendenz zum Lügen dargestellt. Prof. Dr. Björn Ommer, Leiter des Forschungsteams hinter Stable Diffusion, sagte gegenüber Forbes, dass er hoffte, die Arbeit seines Labors bekannt zu machen, aber die gesamte Presseabteilung seiner Universität sei zu diesem Zeitpunkt im Urlaub (so etwas kann nur an öffentlichen Universitäten passieren).

Stabile Verbreitung und der Urheberrechtssturm

Die Offenheit von Stable Diffusion ist ein Geschenk für Forscher, aber auch für Regierungen, Konkurrenten, Regulierungsbehörden und blutrünstige Befürworter des Urheberrechts. In der letzten Kategorie finden wir Matthew Butterick und sein Anwaltsteam, die drei unabhängige Künstler in einer Sammelklage gegen Stability AI, MidJourney und DeviantArt vertreten.

Laut Anwalt Matthew Butterick ist „[Stable Diffusion] ein Parasit, der, wenn er sich vermehren darf, Künstlern jetzt und in Zukunft irreparablen Schaden zufügen wird.“

Ich würde behaupten, dass Butterick in gewisser Weise Recht hat, was seine Charakterisierung von stabiler Diffusion und modernen KI-Bildmodellen angeht. Sie saugen den Originalwerken gewissermaßen die Kreativität aus, mischen alles in großem Maßstab zusammen und gefährden den Lebensunterhalt von Künstlern, die unfreiwillig und unwissentlich mit Mikrobeiträgen dazu beigetragen haben, das Modell zu trainieren.

Allerdings ist die Sammelklage mit so vielen rechtlichen und technischen Ungenauigkeiten, Missverständnissen und Mängeln gespickt, dass ich mich nur fragen kann, ob die Rechtsabteilung verrückt war, als sie den ersten Entwurf der Vorladung verfasste. Eine andere Theorie besagt, dass Butterick und Co. absichtlich versuchen, die Funktionsweise der Technologie falsch darzustellen, um die Öffentlichkeit oder die Richter zu verwirren. Schwer zu sagen.

In meinem nächsten Beitrag werden wir uns eingehender mit der leichtfertigen Klage befassen und erklären, warum sie das Urheberrecht nicht an der richtigen Stelle lindert.

Auch hier veröffentlicht .