英国を拠点とする弁護士クリス・マメン氏は、AI生成音楽に関するバイスとの最近のインタビューで、法律はゆっくりと進み、類推によって進化すると説明した。 「何か新しいことが起こり、それが何に似ているかを見つけ出し、それが徐々に法則として定着していきます。」
生成 AI (テキスト、画像、音楽、ビデオなどの創造的な出力を生成できる AI モデル) に関して私たちが現在直面している問題は、類推を思いつくことの難しさです。言い換えれば、生成 AI を私たちがすでに知っていて理解しているものに関連付けることです。基盤となるテクノロジーは非常に複雑であるため、それが概念的なレベルでどのように機能するのか、またどのように規制されるべきなのかを理解するには、真剣に考えを広げる必要があります。
ソーシャル メディアやインターネットと同様、OpenAI の ChatGPT やそのテキストから画像へのモデル DALL-E 2 などの AI モデルは、一見すると簡単に使用できます。しかし、内部では明らかに私たちがまったく理解できないことがたくさん起こっています。ユーザー エクスペリエンスとその下にあるすべての複雑で技術的なものとの間にギャップがあるため、犯罪的で非倫理的なものが気づかれずに存在する可能性があります。
この「ブラックボックス効果」は金融の世界、最近では暗号通貨セクターでもはっきりと見られます。私を含め、暗号通貨の支持者で暗号通貨がどのように機能するかを技術的に深く理解している人はほとんどおらず、集中型取引所がどのように運営されているかも知りませんでした。従来の金融では、これは通常、政府の保証と監督に依存するところです。しかし、暗号通貨のような新しく複雑な業界では、ほとんど何もありませんでした。比較的広範な導入、技術的な複雑さ、監視の欠如、開発者とユーザー間の知識のギャップにより、犯罪と搾取が一斉に行われる完璧な条件が整いました。昨年、仮想通貨取引所が連鎖的に崩壊し、 2022年にはDeFiプラットフォームから30億ドル以上が盗まれ、数十万人が経済的破滅に陥った。
もちろん、AI 業界は仮想通貨業界とは大きく異なりますが、犯罪と搾取の条件は同じです。 AI モデルは広く採用されており、暗号よりも使いやすく、技術的には複雑で、見落としがほとんどなく、ユーザーと開発者の知識のギャップはおそらく暗号よりもさらに広いです。幸いなことに、AI の危険性とリスクに関する啓発キャンペーンは数多くありますが、仮想通貨に関する同様のキャンペーンは喧騒にかき消されています。
生成 AI モデルでの著作権で保護された素材の使用は、既存の法律や枠組みに疑問が投げかけられる分野の 1 つです。先週の投稿で、私はEU の基礎モデルの解釈について書きました。今週は、クローズドソース AI モデルとオープンソース AI モデルの違いに焦点を当て、今年初めに著作権訴訟に見舞われた人気のオープンソース AI 画像モデルである Stable Diffusion を 2 つの異なる角度から紹介します。今後数週間以内に、この訴訟と著作権法への影響について別の投稿を公開する予定です。
基礎モデルのトレーニングは、時間、資金、計算リソースの点で多大な費用がかかります。一般に、初期投資を行う余裕があるのは、潤沢な資金を持つビッグテック企業だけです。同様に、基盤モデルを支える企業は一般に、クローズドソース化された AI に関心を持っています。競合他社がすべての材料にアクセスし、秘伝のソースを使用できる場合、開発とトレーニングにかかる数百万ドルの費用を回収するのは困難です。
重要な例外の 1 つは、マーク ザッカーバーグとメタの AI 研究チームが物議をかもしながら公開することを決定したメタの LLaMA です。 LLaMA は、7B から 65B パラメータまでのさまざまなサイズでリリースされた大規模言語モデル (LLM) です。中小規模のバージョンである LLaMA-13B でさえ、10 分の 1 小さいにもかかわらず、OpenAI の GPT-3 を上回るパフォーマンスを発揮します。 GPT-3 は、わずか 3 年前には画期的で市場をリードしていました。
Meta のチーフ AI サイエンティスト、Yann LeCun 氏は、「勝てるプラットフォームはオープンになるだろう」と述べています。この方がAIの進歩が早くなり、GoogleやMetaのような企業の管理下にない限り、消費者や政府はAIの導入を拒否するだろうと同氏は主張する。
AI のオープンソース化 (つまり、ソース コードを利用可能にすること) に対する反論は、悪意のある者がそのコードを使用して、悪意のあるアプリケーションを構築したり、誤った情報を広めたり、詐欺やサイバー犯罪、その他多くの悪いことを行うことができるというものです。マーク・ザッカーバーグは最近、LLaMAを一般に公開する決定を批判する2人の米国上院議員から書簡を受け取りました。上院議員らは書簡の中で、メタの「予見される広範な普及の影響についての徹底的な国民的検討の欠如」は最終的には「国民に対する不利益」であると結論づけた。
リリースから 3 か月も経たない現在、多数のオープンソース モデルが LLaMa の肩の上に立っています。たとえば、 Vicuna-13B は、 ShareGPT (ユーザーが ChatGPT と会話を共有できるようにする Chrome 拡張機能) から収集されたユーザー共有会話に基づいて LLaMA を微調整することによってトレーニングされたオープンソース チャットボットです。 GPT-4 による評価によると、Vicuna-13B は約 300 ドルのトレーニング費用で OpenAI の ChatGPT および Google の Bard の品質の 90% 以上を達成します。
競争や安全性への懸念に関係なく、AI のオープンソース化への強い関心があります。新しいモデルや改良されたモデルが頻繁にリリースされます。 HuggingFace Open LLM Leaderboardで、現時点で最もパフォーマンスの高いモデルはFalcon 40Bで、最近 Meta の LLaMA の座を奪いました。 Falcon 40B は、 Amazon の支援を受けて、アブダビの Technology Innovation Institute によって開発されました。
オープンソース開発が将来的に生成 AI の使用を支配する可能性があるかどうかについては、まだ結論が出ていません。 SemiAnalysis が公開した漏洩した Google 内部文書の中で、Google の上級エンジニアは、Google と OpenAI には「堀がなく」、最終的にはオープンソース AI に競争に負けるだろうと主張しました。彼は、「オープンソース モデルはより高速で、よりカスタマイズ可能で、よりプライベートであり、パウンド・フォー・パウンドの機能がより優れています。 」と書いています。
オープンソース AI の最前線にいる企業の 1 つがStability AIです。同社は元ヘッジファンドマネージャーのエマド・モスタク氏によって設立された。ウェブサイトによると、Stability AI は 2021 年の発売以来、140,000 人を超える開発者と世界中の 7 つの研究ハブを擁しています。研究コミュニティは、イメージング、言語、コード、オーディオ、ビデオ、3D コンテンツ、デザイン、バイオテクノロジー、その他の科学研究など、さまざまな目的に合わせて AI モデルを開発しています。
Stability AI で現在最もよく知られている製品は、イメージ モデル Stable Diffusion です。 Stable Diffusion は、テキスト プロンプトから画像を生成または調整できる AI 画像モデルです。これは2022 年 8 月にリリースされました。OpenAI のインターネットで話題になったDALL-E 2 が待機リストの 100 万人のユーザーに非公開でリリースされてから間もなくです。 AI コミュニティの多くは、安定拡散が革命的なマイルストーンであると考えていました。これは、 DALL-E 2や Google のImagenなど、現代の大規模でクローズドなテキストから画像へのモデルの機能に匹敵するか、それを上回るだけでなく、オープンソースでした。
Stable Diffusions ライセンスによると、法律、倫理、常識の範囲内で、誰もがモデルを使用して商用アプリケーションを作成し、そのアーキテクチャを研究し、その上に構築し、その設計を変更することができます。クローズドソースのイメージ モデルとは異なり、Stable Diffusion は平均的なゲーム PC にローカルにダウンロードして実行できます。コーディングのスキルを持たない一般ユーザーの場合は、Web アプリDreamStudioまたは新しいオープンソース Web アプリStableStudio経由で Stable Diffusion にアクセスすることもできます。
余談ですが、Stable Diffusion は実際、ミュンヘンのルートヴィヒ・マクシミリアン大学の研究者チームによって開発されましたが、Stability AI はモデルをトレーニングするためのコンピューティング リソースに資金を提供しました。安定性の拡散につながる重労働はすべてミュンヘン大学が行ったため、安定性は不当に評価されすぎているとして批判されてきました。 先週の日曜日に掲載されたフォーブスの記事では、スタビリティの創設者エマド・モスクが嘘をつく傾向のある病的な誇張者として描かれていた。安定拡散の研究チームの責任者であるビョルン・オマー教授はフォーブスに対し、自分の研究室の研究を宣伝したいと考えていたが、当時大学の報道部門全体が休暇中だったと語った(そのようなことは公立大学でのみ起こり得る)。
Stable Diffusion のオープン性は、研究者だけでなく、政府、競合他社、規制当局、血に飢えた著作権擁護者にとっても素晴らしい贈り物です。最後のカテゴリには、 Stability AI、MidJourney、DeviantArt に対する集団訴訟で3 人の独立したアーティストを代表する Matthew Butterick とその法務チームが含まれています。
弁護士のマシュー・バテリック氏は、「 [安定拡散]は寄生虫であり、増殖を許されると、現在および将来においてアーティストに取り返しのつかない損害をもたらすことになる。」と述べています。
Butterick 氏の安定拡散と現代の AI 画像モデルの特徴付けについては、ある意味では正しいと私は主張します。それらは、オリジナルの作品からある種の創造性を吸い取り、それを大規模にまとめ上げ、微々たる貢献でモデルのトレーニングを不本意かつ無意識に手助けしてきたアーティストの生活を脅かします。
しかし、集団訴訟には法的・技術的な不正確さ、誤解、欠点が数多くあり、召喚状の最初の草案を書いたときに法務チームが気が狂っていたのではないかとしか思えない。もう1つの理論は、バターリック氏らは公衆や裁判官を混乱させるために、テクノロジーがどのように機能するかを意図的に誤って伝えようとしているというものだ。言いにくい。
次回の投稿では、この軽薄な訴訟をさらに詳しく検討し、なぜこの訴訟が著作権の問題を的確に解決しないのかを説明する予定です。
ここでも公開されています。