paint-brush
AI企業、現代のラッダイトなどに対する集団訴訟@futuristiclawyer
165 測定値

AI企業、現代のラッダイトなどに対する集団訴訟

Futuristic Lawyer9m2023/06/23
Read on Terminal Reader

長すぎる; 読むには

Pessimistic Archive は、古い新聞の切り抜きをベースにしたニュースレターです。過去の世代は将来と新しいテクノロジーについて懸念を表明しています。 3人の独立したビジュアルアーティストが、Stable Diffusionに対して集団訴訟を起こすところまで行った。この訴訟は基本的に、著作権で保護されたデータでトレーニングされたすべての生成 AI モデルを対象としています。
featured image - AI企業、現代のラッダイトなどに対する集団訴訟
Futuristic Lawyer HackerNoon profile picture

序章

悲観的なアーカイブは、古い新聞の切り抜きを基にしたニュースレターで、過去の世代が将来や新しいテクノロジーについての懸念を表明しています。


1859年、フランスの詩人シャルル・ボードレールは写真を説明したそれは*「すべての画家志望者、恵まれていない、あるいは怠け者で学業を終えることができないすべての画家の避難所」*であり、それを受け入れることは「盲目」「無能」のしるしでした。


1906年に、タイプライターで書かれたラブレターという作家想像できる限り最も「冷酷で、機械的で、ロマンチックではない作品」である一方、別の作家は「タイプ打ちされたラブレターを我慢する女の子は、どんなことでも我慢するだろう」と述べた。


過去一世紀の間に、注目を集める新聞の見出しベッドでの読書、ローラースケートの弊害、「バランスを保つためにライダーにかかる神経質な緊張」に起因する「自転車の顔」について警告し、アメリカ作曲家・作家・出版社協会は、その方法を図表で証明した。 「しゃべる写真、ラジオ、蓄音機」が「音楽を殺した」のだ。


2023 年に早送りすると、いわゆる人工知能が登場します。テキスト プロンプトからテキスト、画像、ビデオ、音楽をシームレスに数秒以内に生成できます。多くのアーティストが懸念している。


3人の独立系ビジュアルアーティスト、サラ・アンダーセン、ケリー・マッカーナン、カーラ・オルティスが申請まで行った。 Stable Diffusionに対する集団訴訟マシュー・バテリック弁護士とジョセフ・サヴェリ法律事務所の訴訟担当者の協力を得て。


マシュー・バテリック氏は、「AI に対する著作権の法的な戦い」ですでに知られている人物です。 GithubのCoPilotに対する別の集団訴訟、コード生成のための生成 AI ツール。

集団訴訟

私の最新の投稿では, オープンソースのAI画像ジェネレーター「Stable Diffusion」について書きました。この集団訴訟は、Stable Diffusion、Stability AI、別の有名な AI 画像会社 Midjourney のオーナー、およびオンライン アート コミュニティ DevianArt を対象としています。


しかし、原告の訴状は広範な範囲で定式化されており、本質的に、著作権で保護されたデータでトレーニングされたすべての生成 AI モデル (大きなものはすべて、膨大な量) を対象としています。


事実上、サンフランシスコ連邦裁判所が7月19日に訴訟を審理することを決定した場合、 被告らの却下申立て、裁判所の決定は重大な影響を与える可能性があります数兆ドル規模の産業


全体として、集団訴訟の背後にあるアーティスト 3 人は、生成 AI モデルが引き起こす著作権に関する 2 つの難しい質問に「はい」と答えさせようとしています。1 つは入力に関するもの、もう 1 つは出力に関するものです。


  1. 入力された質問: 開発者は、AI のトレーニング プロセスで著作権で保護されたマテリアルを使用する場合、許可を取得するか、権利者にライセンスを支払う必要がありますか?


  1. 出力に関する質問: 生成 AI 製品が人間のアーティストによって作成された作品に似た出力を生成した場合、権利所有者はプロバイダーに対して侵害を主張できますか?


私は米国著作権法の専門家ではなく、問題に関して中立的な立場を持つ単なる観察者です。私の調査によると、最初の質問に対する答えは「ノー」ですが、2 番目の質問は答えるのが難しく、ケースバイケースの評価に依存する可能性があります。


この集団訴訟で何らかの答えが得られるかどうかは非常に疑問です。


Stable Diffusion による画像の使用と配布に関する別の係属中の著作権訴訟ストック画像の巨人ゲッティイメージズによって提出されました今年の2月に。


私の見解では、ゲッティ イメージズからの訴訟は法廷に持ち込まれ、著作権と生成 AI の法的理解に貢献する可能性がはるかに高いと考えられます。


主な違いを一言で言えば、ゲッティイメージズの訴訟はより文書化されているということです。ゲッティイメージズは自分たちの権利を証明し、具体的な権利侵害を指摘することができるが、集団訴訟を起こしたアーティストたちはそれができない。


残念ながら、アーティストらの集団訴訟の申し立てには、安定拡散がどのようにトレーニングされたか、モデルがどのように画像を生成するかについて初歩的な間違いと間違った仮定が含まれています。


技術愛好家のグループは Web サイト http://www.stablediffusionfrivolous.com/ を作成し、苦情にある技術的な誤りの一部を指摘しています。


ここでは、アーティストたちが上記の 2 つの法的問題にどのように対処しているか、むしろ対処できていないことに焦点を当てます。

入力質問

以下は訴状 (¶57-58) からの引用で、アーティストたちは入力された質問について自分の見解を述べています。


「安定性はスクレイピングされ、それによって安定性拡散のトレーニング データとして使用されるトレーニング画像として Web サイトから 50 億以上の画像がコピーされました。


スタビリティは、トレーニング画像の作成者や、トレーニング画像を収集した画像をホストする Web サイトのいずれからも同意を求めませんでした。


Stability は、トレーニング イメージのライセンスを交渉しようとしませんでした。単に安定が彼らを奪っただけだ。 Stability は、Stable Diffusion 内にトレーニング画像の圧縮コピーを埋め込んで保存しています。」


安定拡散の最初のバージョンは、「クリップフィルター済み」公開データベース LAION-5B からの画像とテキストのペア。


LAION-5B には 58 億 5,000 万件の画像情報が含まれており、この種のデータベースとしては最大です。これはドイツの非営利団体 LAION (Large-scale Artificial Intelligence Open Network の頭字語) によって開発され、Stability AI はその開発資金を支援しました。


LAION-5B には実際の画像が保存されていないことに注意することが重要です。代わりに、各画像に関する情報が保存され、次の情報で構成されます。


  • 画像の Web サイトへの URL リンク
  • 画像が何を描いているかについての短いテキストの説明
  • 画像の高さと幅
  • 他の画像との類似性の認識
  • 画像が「安全でない」(ポルノ/NSFW)可能性の確率スコア
  • 画像に透かしがある可能性の確率スコア


したがって、Stable Diffusion が自分たちのアートの「圧縮されたコピーを保存する」というアーティストの主張は誤りです。実際には、Stable Diffusion のトレーニング データセットは一部のアーティストの画像に関するメタデータで構成されており、そのメタデータ自体は著作権で保護されていません。


同様に、Spotify の曲は著作権で保護されていますが、アーティスト名、曲名、プロデューサー、リリース日、ジャンル、曲の長さなどのメタデータは著作権で保護されていません。これは、このデータの取得が純粋に機械的なプロセスであり、創造的な努力を必要としないためです。


LAION-5B は公開データセットなので、興味のある人なら誰でも調べることができます。会社産卵検索ツールを作成しました訓練を受けた.com LAION-5B を検索して、自分の画像がデータセットに含まれているかどうかを確認できます。


これは、サラ アンダーセン、ケリー マッカーナン、カーラ オルティスの 3 人のアーティストが行ったことであり、それぞれ 200 点以上、30 点以上、12 点以上の作品の表現を発見しました。


具体的には、安定拡散は当初23億枚の画像でトレーニングLAION-2B-EN と呼ばれる LAION-5B のサブセットからのもので、英語のテキスト説明付きの画像のみが含まれています。


Stable Diffusions のトレーニング データのサイズを考慮すると、3 人のアーティストが無意識のうちに行った貢献は、広大な海の中の一滴に過ぎません。


これと比較すると、Stability AI に対するゲッティ イメージズの訴訟は、 コレクションからの 1,200 万以上の写真これはデータセット全体からするとまだごくわずかな部分です。


すべてのアーティストの作品のうち、サラ アンダーセンによって米国著作権局に登録されている画像は 16 枚だけです。


これは、合衆国法典 17 条 411(a) に基づき、「事前登録または著作権請求の登録が行われるまでは、米国の著作物における著作権侵害に対する民事訴訟は提起されないものとします(..)」となります。


つまり、作品が米国著作権局に登録されていない場合、権利者は通常、民事訴訟で侵害を主張することができません。これは、アーティストがサラ アンダーセンが所有および登録した 16 点の作品を代表してのみ主張できることを意味します。


安定拡散がこれら 16 枚の画像のいずれかに似た出力を生成する場合があることをアーティストが証明できれば、アーティストはおそらく「出力の問題」に関して訴訟を起こすことができるでしょう。しかし、これから見るように、彼らはそうすることができません。

アウトプットの質問

出力に関する質問に関して、アーティストらは、Stable Diffusion が生成するすべての出力は本質的にそのトレーニング データから派生しており、それによって著作権を侵害していると示唆しています (¶94-95 を参照)。この法理論は非常に突飛です。


以下は、法学教授マシュー・サグの論文からの図です。生成 AI の著作権の安全性左の 15 枚の画像は、「白」、「コーヒー」、「カップ」のタグが付いた Stable Diffusions のトレーニング データからのものです。


右側の画像は安定拡散によって生成され、「白い背景にコーヒー カップ」というテキスト プロンプトが表示されています。アーティストの論理によれば、右側のすべての画像は左側の画像の著作権を侵害することになります。


画像は明らかに実質的に似ていないように見えますが。

特定のまれな条件下では、安定拡散は実際に、トレーニング データセットの画像に非常によく似た出力画像を生成できることが証明されています。


これは、入力トレーニング画像がインターネット上で広く配布されており、Stable Diffusion のトレーニング データで何度も繰り返される場合に特に発生する可能性が高くなります。


というタイトルの最近の論文で拡散モデルからのトレーニング データの抽出、 Nicholas Carlini と彼の共著者は、安定拡散トレーニング データ内で最も重複している 350,000 個の画像を特定しました。


その後、各トレーニング データ画像に関連付けられたテキスト説明と同一のテキスト プロンプトを含む、安定拡散を介して 500 枚の新しい画像を生成しました。


結局のところ、1 億 7,500 万枚の画像 (350,000*500) のうち、「コピーに近い」と合理的にみなせる画像は 109 枚 (0.03%) だけでした。


そのため、著作権侵害が発生する可能性がありますが、アーティストたちは、Stable Diffusion がどのように自分たちの作品をコピーしたかという例を持ち出していません。それどころか、彼らは訴状93章に次のように書いている。


一般に、特定のテキスト プロンプトに応答して提供される安定拡散出力画像は、トレーニング データ内の特定の画像に厳密に一致する可能性は高くありません。


アーティストたちは、Stable Diffusion が彼らの個人的な芸術スタイルを模倣できると主張しています。通常、「芸術的スタイル」は著作権保護の対象になりません。侵害の申し立ては常に特定の作品の侵害に関連付けられている必要があります。


ただし、ここには正当な問題があります。 かなりの世間の注目。生成 AI モデルは、有名アーティストの独特のスタイルを数秒で無期限に、ほぼゼロのコストでコピーできます。


この問題を解決するために、Stability AI はデータセット内のラベルから有名アーティストの名前を削除しました。昨年 11 月のアップグレードの一環として。これは、Stable Diffusion が人々の芸術スタイルを模倣できなくなったことを意味します。


たとえば、Stable Diffusion にピカソやレンブラントのスタイルで画像を作成するよう依頼しても、それはできなくなります。この変更は集団訴訟の申し立ての 2 か月前に開始されました。


全体として、安定拡散が自分たちの作品をコピーするとアーティストたちがどのように、そしてなぜ信じているのかは不明です。アーティストたちは、Stable Diffusion が将来どのように自分たちの仕事を脅かす可能性があるかをより懸念しており、Stable Diffusion が現在どのように実際に機能するかにはあまり関心を持っていないようです。


3人のアーティストのうちの1人、サラ・アンダーセンはこう書いている。 ニューヨークタイムズの記事昨年の12月から:


「私はいくつかのジェネレーターを試してきましたが、これまでのところ、私のキャリアを直接脅かすような方法で私のスタイルを模倣したものはありません。AI が改善し続けるにつれて、この事実はほぼ確実に変化するでしょう。」


以下は記事からの 2 つのイラストで、1 つはサラ・アンダーセンによるもの、もう 1 つは Stable Diffusion によるものです。おそらくどれが誰によって作成されたか推測できます。

終わりの思い

2022 年 12 月には、 スタビリティAI発表彼らはSpawning社と提携したとのこと訓練を受けた.comとなり、アーティストは、自分の作品が次期バージョンの Stable Diffusion のトレーニング素材として使用されることをオプトインまたはオプトアウトするオプションが提供されるようになります。


イニシアチブですが、 完璧ではないかもしれない, これは、自分の作品を大規模な基礎モデルにフィードすることを懸念しているアーティストにとって、正しい方向への一歩と考えることができます。


集団訴訟の前に、 Karla Ortiz 氏が MIT Technology Review に語った新しいオプトアウト機能については、Stability AI が十分に機能しているとは考えていませんでした。


「Stability.AI ができる唯一のことは、データベースを完全に破壊し、私たちのすべてのデータを含むすべてのモデルを完全に破壊するアルゴリズムによるデゴルジュメントです。」


この発言は非常に示唆に富んでいます。集団訴訟法の背後にある3人のアーティストは、マシュー・バテリックとその他の法的代理人とともに、アーティストの権利を擁護するふりをしているが、実際には現代人である。ラッダイト