paint-brush
新たな研究により、AIによる盗難に対する人気アート保護ツールの脆弱性が明らかに@escholar
163 測定値

新たな研究により、AIによる盗難に対する人気アート保護ツールの脆弱性が明らかに

長すぎる; 読むには

スタイルの模倣に対する現在の AI 保護ツールは効果がありません。単純な模倣方法では簡単に回避され、アーティストが危険にさらされます。新しい保護戦略が必要です。
featured image - 新たな研究により、AIによる盗難に対する人気アート保護ツールの脆弱性が明らかに
EScholar: Electronic Academic Papers for Scholars HackerNoon profile picture
0-item

著者:

(1) Robert Honig、チューリッヒ工科大学 ([email protected])

(2) ハビエル・ランド、チューリッヒ工科大学 ([email protected])。

(3)ニコラス・カルリーニ、Google DeepMind

(4) Florian Tramer、ETH チューリッヒ ([email protected])。

リンク一覧

要約と1. はじめに

  1. 背景と関連研究

  2. 脅威モデル

  3. 堅牢なスタイルの模倣

  4. 実験のセットアップ

  5. 結果

    6.1 主な調査結果: すべての保護は簡単に回避できる

    6.2 分析

  6. 議論と広範な影響、謝辞、参考文献

A. 詳細なアートの例

B. 強力な擬態世代

C. 詳細な結果

D. グレイズ微調整との違い

E. Glaze 2.0 に関する調査結果

F. Mist v2 に関する調査結果

G. スタイル模倣の方法

H. 既存のスタイルの模倣の保護

I. 堅牢な模倣方法

J. 実験のセットアップ

K. ユーザー調査

L. コンピューティングリソース

抽象的な

アーティストは、独自の芸術スタイルを忠実に再現できる画像生成モデルの進歩をますます懸念しています。これに対応して、オンラインで公開されるアートワークに小さな敵対的摂動を組み込む、スタイルの模倣に対する保護ツールがいくつか開発されました。この研究では、何百万もダウンロードされている人気の保護の有効性を評価し、それらが誤った安心感しか提供しないことを示しています。画像のアップスケーリングなどの手間のかからない「既成」の手法は、既存の保護を大幅に低下させる堅牢な模倣方法を作成するのに十分であることがわかりました。ユーザー調査を通じて、既存の保護はすべて簡単に回避できるため、アーティストがスタイルの模倣に対して脆弱になる可能性があることを実証しました。敵対的摂動に基づくツールでは、生成 AI の悪用からアーティストを確実に保護することはできないと警告し、代替の保護ソリューションの開発を強く求めます。

1 はじめに

スタイルの模倣は、テキストから画像を生成するモデルの一般的な応用例です。アーティストの画像が数枚あれば、モデルを微調整してそのスタイルの新しい画像(ゴッホ風の宇宙船など)を生成することができます。しかし、スタイルの模倣は、誤用されると重大な危害を及ぼす可能性があります。特に、多くの現代アーティストは、他の人が自分のユニークなアートスタイルをコピーした画像を制作し、潜在的に顧客を奪ってしまうのではないかと懸念しています(Heikkila¨、2022年)。これに対応して、アーティストをスタイルの模倣から守るためのいくつかの保護策が開発されました(Shan et al.、2023a; Van Le et al.、2023; Liang et al.、2023年)。これらの保護策は、アーティストがオンラインで公開する画像に敵対的な摂動を加え、微調整プロセスを阻害します。これらの保護は、ニューヨークタイムズ(Hill、2023年)、CNN(Thorbecke、2023年)、サイエンティフィックアメリカン(Leffer、2023年)などのメディアで特集されるなど、大きな注目を集めており、100万回以上ダウンロードされています(Shan et al.、2023a)。


しかし、これらのツールが実際にアーティストをスタイルの模倣からどの程度保護しているかは不明であり、特に誰かが積極的にそれらを回避しようとした場合、それは明らかではありません (Radiya-Dixit et al., 2021)。本研究では、最先端のスタイル保護ツールである Glaze (Shan et al., 2023a)、Mist (Liang et al., 2023)、および Anti-DreamBooth (Van Le et al., 2023) は、単純で堅牢な模倣方法に直面した場合は効果がないことを示しています。私たちが検討する堅牢な模倣方法は、異なる微調整スクリプトを使用する、またはトレーニング前に画像にガウスノイズを追加するなどの労力の少ない戦略から、既製のツールを組み合わせた多段階の戦略まで多岐にわたります。私たちはユーザースタディで結果を検証し、堅牢な模倣方法が、保護されていないアートワークから得られる結果と品質が区別できない結果を生み出す可能性があることを明らかにしました (例として図 1 を参照)。


既存の保護ツールは、単に誤った安心感を与えるだけであることを示しています。私たちの堅牢な模倣方法は、新しいツールの開発や微調整方法を必要とせず、慎重に


図 1: アーティストは、自分の作品に合わせて微調整された生成モデルによるスタイルの模倣に対して脆弱です。既存の保護ツールは、公開されたアートワークに小さな変化を加えて模倣を防止します (Shan et al., 2023a; Liang et al., 2023; Van Le et al., 2023)。ただし、これらの保護は堅牢な模倣方法には効果がなく、誤った安心感を与え、アーティストを脆弱な状態にします。アートワークは @nulevoy (Stas Voloshin) によるもので、許可を得て複製されています。


これらの保護ツールが最初に導入された当時すでに存在していた標準的な画像処理技術を組み合わせたものです。したがって、これらのツールの登場以来、低スキルの偽造者でも簡単に回避できたと考えられます。


我々は現在存在する特定の保護ツールを評価しているが、スタイル模倣保護には固有の限界がある。アーティストは最初に行動しなければならないため、必然的に不利になる(つまり、保護されたアートを誰かがダウンロードすると、保護を変更できなくなる)。保護ツールが効果を発揮するには、将来適応的に選択されるものであっても、あらゆる微調整手法に転送される摂動を作成するという困難な課題に直面している。同様の結論はRadiya-Dixitら(Radiya-Dixit et al., 2021)によって導き出されており、彼らは敵対的摂動では顔認識システムからユーザーを保護できないと主張した。したがって、敵対的機械学習技術では生成的スタイル模倣からアーティストを確実に保護することはできないと警告し、アーティストを保護するための代替手段の開発を強く求めている。


私たちは、影響を受ける保護ツールに対し、既存のユーザーにとって最善の対応策を決定できるよう、公開前に結果を開示しました。


この論文はarxivで入手可能CC BY 4.0 ライセンスに基づきます。