paint-brush
Az új kutatás a mesterséges intelligencia-lopás elleni népszerű művészetvédelmi eszközök sebezhetőségeit tárja feláltal@escholar
163 olvasmányok

Az új kutatás a mesterséges intelligencia-lopás elleni népszerű művészetvédelmi eszközök sebezhetőségeit tárja fel

Túl hosszú; Olvasni

A jelenlegi AI-védelmi eszközök a stílusmimikri ellen nem hatékonyak. Az egyszerű mimikri módszerek könnyen megkerülik őket, így a művészek szabadon maradnak. Új védelmi stratégiákra van szükség.
featured image - Az új kutatás a mesterséges intelligencia-lopás elleni népszerű művészetvédelmi eszközök sebezhetőségeit tárja fel
EScholar: Electronic Academic Papers for Scholars HackerNoon profile picture
0-item

Szerzői:

(1) Robert Honig, ETH Zürich ([email protected]);

(2) Javier Rando, ETH Zürich ([email protected]);

(3) Nicholas Carlini, Google DeepMind;

(4) Florian Tramer, ETH Zürich ([email protected]).

Hivatkozások táblázata

Absztrakt és 1. Bevezetés

  1. Háttér és kapcsolódó munka

  2. Fenyegetés modell

  3. Robusztus stílusmimika

  4. Kísérleti beállítás

  5. Eredmények

    6.1 Főbb megállapítások: Minden védelem könnyen megkerülhető

    6.2 Elemzés

  6. Megbeszélés és szélesebb körű hatás, köszönetnyilvánítás és hivatkozások

A. Részletes művészeti példák

B. Robusztus mimikri generációk

C. Részletes eredmények

D. Különbségek a máz finomhangolásával

E. Eredmények a Glaze 2.0-ról

F. Megállapítások a ködről v2

G. Stílusmimikri módszerek

H. Meglévő stílusmimikri védelmek

I. Robusztus mimikri módszerek

J. Kísérleti beállítás

K. Felhasználói tanulmány

L. Számítási erőforrások

Absztrakt

A művészeket egyre inkább aggasztják az olyan képgenerálási modellek fejlesztései, amelyek szorosan képesek megismételni egyedi művészi stílusukat. Erre válaszul számos védelmi eszközt fejlesztettek ki a stílusmimikri ellen, amelyek kisebb, ellentmondásos perturbációkat építenek be az online közzétett műalkotásokba. Ebben a munkában a népszerű védelmek hatékonyságát értékeljük – több millió letöltés mellett –, és megmutatjuk, hogy csak hamis biztonságérzetet nyújtanak. Úgy találtuk, hogy az alacsony erőfeszítést igénylő és „gyári” technikák, mint például a képfelskálázás, elegendőek olyan robusztus mimikri módszerek létrehozásához, amelyek jelentősen rontják a meglévő védelmet. Egy felhasználói tanulmányon keresztül bemutatjuk, hogy minden létező védelem könnyen megkerülhető, így a művészek sebezhetővé válnak a stílusutánzattal szemben. Figyelmeztetjük, hogy az ellenséges perturbációkon alapuló eszközök nem tudják megbízhatóan megvédeni a művészeket a generatív mesterséges intelligencia visszaélésétől, és alternatív védelmi megoldások kidolgozását sürgetjük.

1 Bevezetés

A stílusmimika a szöveg-kép generatív modellek népszerű alkalmazása. Adott néhány kép egy művésztől, egy modell finomhangolható új képek létrehozásához ebben a stílusban (pl. egy űrhajó Van Gogh stílusában). A stílusmimika azonban jelentős károkat okozhat, ha helytelenül használják. Sok kortárs művész különösen attól tart, hogy mások most olyan képeket készíthetnek, amelyek lemásolják egyedi művészeti stílusukat, és potenciálisan ellopják a vásárlókat (Heikkila¨, 2022). Válaszként számos védelmet fejlesztettek ki, hogy megvédjék a művészeket a stílusmimikritől (Shan et al., 2023a; Van Le et al., 2023; Liang et al., 2023). Ezek a védelmek ellenséges zavarokat okoznak a művészek által online közzétett képeken, hogy megakadályozzák a finomhangolási folyamatot. Ezek a védelmek jelentős figyelmet kaptak a médiában – a New York Times (Hill, 2023), a CNN (Thorbecke, 2023) és a Scientific American (Leffer, 2023) funkciókkal –, és több mint 1 millió alkalommal töltötték le őket (Shan et al. , 2023a).


Mégsem világos, hogy ezek az eszközök valójában milyen mértékben védik meg a művészeket a stílusmimikri ellen, különösen akkor, ha valaki aktívan megpróbálja megkerülni őket (Radiya-Dixit et al., 2021). Ebben a munkában bemutatjuk, hogy a legmodernebb stílusvédő eszközök – a Glaze (Shan és mtsai, 2023a), a Mist (Liang et al., 2023) és az Anti-DreamBooth (Van Le et al., 2023) – hatástalanok, ha egyszerű, robusztus mimikri módszerekkel nézünk szembe. Az általunk vizsgált robusztus mimikri módszerek az alacsony erőfeszítést igénylő stratégiáktól – mint például egy másik finomhangolási szkript használata vagy Gauss-zaj hozzáadása a képekhez edzés előtt – a többlépcsős stratégiákig terjednek, amelyek a kész eszközöket kombinálják. Eredményeinket egy felhasználói vizsgálattal igazoljuk, amelyből kiderül, hogy a robusztus mimikri módszerek olyan eredményeket hozhatnak, amelyek minőségében megkülönböztethetetlenek a nem védett műalkotások eredményeitől (szemléltető példát lásd az 1. ábrán).


Megmutatjuk, hogy a meglévő védelmi eszközök csupán hamis biztonságérzetet nyújtanak. Robusztus mimikri módszereink nem igényelnek új eszközöket vagy finomhangolási módszereket, csak óvatosan


1. ábra: A művészek sebezhetőek a művészetükre finomhangolt generatív modellek stílusmimikájával szemben. A meglévő védelmi eszközök kis zavarokat okoznak a publikált alkotásokban, hogy megakadályozzák a mimikrát (Shan et al., 2023a; Liang et al., 2023; Van Le és mtsai, 2023). Ezek a védelmek azonban kudarcot vallanak a robusztus mimikri módszerekkel szemben, hamis biztonságérzetet keltenek, és sebezhetővé teszik a művészeket. @nulevoy (Stas Voloshin) alkotásai, engedéllyel reprodukálva.


a szabványos képfeldolgozási technikák kombinálása, amelyek már akkor is léteztek, amikor ezeket a védelmi eszközöket először bemutatták!. Ezért úgy gondoljuk, hogy még az alacsonyan képzett hamisítók is könnyen megkerülhették volna ezeket az eszközöket a kezdetektől fogva.


Bár értékeljük a ma létező speciális védelmi eszközöket, a stílusutánzó védelem korlátai velejárók. A művészek szükségszerűen hátrányos helyzetbe kerülnek, mivel először nekik kell cselekedniük (vagyis ha valaki letölti a védett műalkotást, a védelem már nem módosítható). Ahhoz, hogy hatékonyak legyenek, a védőeszközök azzal a kihívást jelentő feladattal szembesülnek, hogy olyan zavarokat hozzanak létre, amelyek bármilyen finomhangolási technikára átkerülnek, még akkor is, ha a jövőben adaptív módon választanak ki. Hasonló következtetésre jutottak Radiya-Dixit et al. (Radiya-Dixit et al., 2021), akik azzal érveltek, hogy az ellenséges perturbációk nem tudják megvédeni a felhasználókat az arcfelismerő rendszerektől. Ezért felhívjuk a figyelmet arra, hogy az ellenséges gépi tanulási technikák nem lesznek képesek megbízhatóan megvédeni a művészeket a generatív stílusmimikritől, és sürgetjük a művészek védelmét szolgáló alternatív intézkedések kidolgozását.


Eredményeinket a közzététel előtt közöltük az érintett védelmi eszközökkel, hogy meghatározhassák a legjobb lépést a meglévő felhasználók számára.


Ez a papír az elérhető az arxiv CC BY 4.0 licenc alatt.