著者: (1)ジョン・ジョン (2)ハオ・ウー (3)ジョンジョンジョン 四つ目は、 (5)ジン・カオ (6) フンフア・リー (7) ベン・ニウ Authors: (1)ジョン・ジョン (2)ハオ・ウー (3)ジョンジョンジョン 四つ目は、 (5)ジン・カオ (6) フンフア・リー (7) ベン・ニウ 左のテーブル Abstract and Introduction Background & Related Work 2.1 Text-to-Image Diffusion Model 2.2 Watermarking Techniques 2.3 Preliminary 2.3.1 [Problem Statement](https://hackernoon.com/preview/2x1yHRqHVmhjmOG0ig2c) 2.3.2 [Assumptions](https://hackernoon.com/preview/2x1yHRqHVmhjmOG0ig2c) 2.4 Methodology 2.4.1 [Research Problem](https://hackernoon.com/preview/2x1yHRqHVmhjmOG0ig2c) 2.4.2 [Design Overview](https://hackernoon.com/preview/2x1yHRqHVmhjmOG0ig2c) 2.4.3 [Instance-level Solution](https://hackernoon.com/preview/2x1yHRqHVmhjmOG0ig2c) 2.5 Statistical-level Solution Experimental Evaluation 3.1 Settings 3.2 Main Results 3.3 Ablation Studies 3.4 Conclusion & References 抽象 テキスト対画像データモデルの検証行動の出現は最近大きな関心を引き起こしたが、同行者は、ユーザの条件を破ることで潜在的な侵害の実験的な影である。具体的には、反対者は、適切な許可なしに自分自身を訓練するための商業モデルによって作成されたデータを悪用することができる。そのようなリスクに対処するためには、そのトレーニングデータが完全または部分的に特定のソースモデルから生まれたかどうかを判断することによって、疑わしいモデルのトレーニングデータの割り当てを調査することが重要である。私たちの既存の方法は、トレーニングまたはソースモデルの推測段階の間に追加のウォーターマークを適用することを必要とします。しかし、これらの方法は、特にモデルの所有者がセキュリティの専門知識を欠 トレーニングデータアトリエーション: あなたのモデルは秘密裏に私の作成したデータに訓練されましたか? In . ACM, ニューヨーク, ニューヨーク, 米国, 9 ページ. https://doi.org/10.1145/nnnnnnnnn.nnnnnnnnn ACM Reference Format: 1 導入 拡散モデルに基づくテキスト対画像生成システムは、デジタル画像や芸術的創作の創造のための一般的なツールとなっています [16, 17] 自然言語で迅速な入力を与え、これらの生成システムは、高エステティックな品質のデジタル画像を合成することができます。それにもかかわらず、これらのモデルを訓練することは非常に集中的な任務であり、膨大な量のデータと訓練資源を必要とします。 こうしたモデルの重要な懸念の一つは、生成されたデータの不正使用である[10]. 図1に示すように、攻撃者は商業モデルをクエリし、モデルによって生成されたデータを収集し、生成されたデータを使用して個人のモデルを訓練する可能性があります。 この攻撃はすでに、商業モデル開発者の間で警報を高めている。例えば、MidJourney(14)およびImagenAI(7)など、いくつかの主要な企業は、このような慣行は図2に示すように許可されていないと、ユーザーの条件で明示的に述べている。 課題を解決するには、課題を達成するために水印技術を使用することを考える場合があります。既存の水印方法は、一般的に2種類に分類されることができます:一つは、モデルトレーニング段階の間にトレーニングデータに水印を埋め込むことを含む(11、12、28)、そしてもう一つは、生成されたデータに追跡可能な水印の特徴が含まれるように、トレーニング後のモデルの出力に水印を追加する(10)、しかし、既存の作業が完全に解決しない2つの問題があります。第一に、実行可能性に関して、水印が発行されたデータを通じて疑わしいモデルに水印を成功に転送できるかどうかは未知のままです。第二に、実用性に関しては、水印技術は、ソースモデルの生成に この論文では、ソースモデル内に自然に埋め込まれた指標を発見することを目指し、ソースモデルによって生成されたデータで訓練されたモデルに転送することができる。これらの固有のウォーターマークは、ソースと疑わしいモデルの間の関係を明らかにすることができます。人工的に注入されたウォーターマークとは異なり、これらの固有の指標は、モデルの訓練アルゴリズムや出力に変更を必要としません。 私たちのアプローチの論理は、テキスト対画像生成モデルで示される記憶現象に由来します。メモリ化は、モデルが推測中に、モデルが相応のテキストによって促される場合に、特定のトレーニングサンプルの画像を記憶し、再現する能力を意味します [23]. 研究は、生成モデルのこのようなメモリ化が偶発的ではないことを示しています。 目標を達成するためにメモリ化現象を適用することは簡単ではありませんが、有望であるにもかかわらず、我々が3で提案したように、疑わしいモデルでのトレーニングデータ抽出を成功させることができても、我々が得る情報はソースモデルによって生成されたデータです。 この論文では、疑わしいモデルが特定のソースモデルによって生成されたデータを使用してトレーニングされているかどうかを確認するための実用的なデータインジェクションフリー方法を提案します。私たちのアプローチは、インスタンスレベルおよび統計的行動特性の両方を考慮し、そのインスタンスモデルは、固有の指標の一部として処理され、その生成データを許可されていない使用に対して追跡します。特に、インスタンスレベルでは、テキストと画像のペアの形で、ソースモデルのトレーニングデータ内のキーサンプルのセットを選択する2つの戦略を策定します。このセットは、メモリ化現象を最大化するために選択されます。私たちは、これらのサンプルのテキストを使用して、ソースモデルによって生成されたデータ 実験結果は、当社のインスタンスレベルの割り当てソリューションが、0.8 を超える高い信頼性を持つ侵害モデルを識別するのに信頼性があることを示しています。侵害モデルが生成されたデータの 30% をわずかに使用する場合でも、割り当ての信頼性は、既存のウォーターマークベースの割り当て方法と同等に 0.6 を超えています。 Our main contributions are summarized as: 事前訓練されたテキスト対画像モデルから生成されたデータの悪用によって引き起こされるユーザー用語違反の問題に焦点を当て、我々は、現実的なシナリオでトレーニングデータの割り当てとして問題を定義する。 インスタンスレベルと統計レベルの両方で、疑わしいモデルのトレーニングデータをソースモデルに割り当てるための2つの新しいインジェクションフリーソリューションを提案します。 結果は、そのパフォーマンスは、モデルが展開される前にウォーターマークを注入する既存のウォーターマークベースのアプローチと同等であることを示しています。 論文の残りの部分は次のとおりで構成されています。我々は、背景知識と関連する作業をセクション2に紹介します。セクション3は、前提と我々の仮定を説明します。その後、セクション4は、私たちの研究質問と割り当てのアプローチを詳細に紹介します。実験評価の結果はセクション5で報告されています。最後に、我々はセクション6でこの論文を締結します。 この論文は、CC BY 4.0 ライセンスの下で archiv で提供されています。 この紙は CC BY 4.0 ライセンス ARCHIV で利用可能