W dynamicznym środowisku politycznym Stanów Zjednoczonych szybko zbliżające się wybory prezydenckie w 2024 r. stają się areną nowego rodzaju bitwy — bitwy przeciwko podstępnemu wzrostowi deepfake'ów generowanych przez sztuczną inteligencję. Te wyrafinowane syntetyczne konstrukcje, zdolne do zniekształcania rzeczywistości, zapoczątkowały maraton legislacyjny w całym kraju, podczas gdy przywódcy stanów naciskają na podjęcie zdecydowanych środków w celu utrzymania integralności informacji wyborców. Nie ma federalnego prawa dotyczącego deepfake'ów, pozostawiając poszczególnym stanom uchwalanie ustaw. Najwyższy urzędnik Federalnej Komisji Wyborczej (FEC) zasygnalizował oczekiwania, że problem ten zostanie rozwiązany w dalszej części tego roku. Ta prognoza sugeruje, że znaczna część okresu wyborczego w 2024 r. może potencjalnie rozwinąć się, gdy ten rodzaj dezinformacji pozostanie niekontrolowany.
Niedawno, łącząc podział partyjny ze wspólną wizją uczciwości wyborów, senatorowie Amy Klobuchar z Minnesoty i Lisa Murkowski z Alaski połączyli siły. Ich wspólne przedsięwzięcie legislacyjne przedstawia przyszłościowy projekt ustawy skierowany wprost na cyfrową granicę reklamy politycznej. Ta proponowana ustawa wniosłaby bardzo potrzebną jasność do mętnych wód generowanych przez sztuczną inteligencję reklam politycznych poprzez egzekwowanie wyłączeń odpowiedzialności. Ale na tym się nie kończy; ustawa upoważnia również Federalną Komisję Wyborczą (FEC) do pełnienia funkcji cyfrowego strażnika, zapewniając, że żadne naruszenia nie pozostaną niezauważone lub nie zostaną pominięte. To odważny krok w kierunku ochrony przejrzystości, gdy żeglujemy w kolejną falę kampanii wyborczych.
Co się stanie w tym roku wyborczym, jeśli, jak się spodziewano, będzie mnóstwo politycznie motywowanych deepfake'ów? Jak można chronić ludzi przed wpływem? Nie ma prostej odpowiedzi.
Deepfakes — termin łączący „głębokie uczenie się” z „fake” — odnosi się do sztucznie generowanych dźwięków, obrazów lub filmów wideo, których celem jest odtworzenie wizerunku osoby z niepokojącą dokładnością. Lutowy incydent w New Hampshire jest wstrząsającym przykładem: głos generowany przez sztuczną inteligencję, niepokojąco naśladujący prezydenta Joe Bidena, wprowadził tysiące ludzi w błąd fałszywymi informacjami o głosowaniu. To wydarzenie podkreśla pilną potrzebę świadomego i proaktywnego prawodawstwa.
„W zaskakującym obrocie wydarzeń we wtorek w eterze usłyszano głos, który oznajmił: »Twój głos dzisiaj to krok w kierunku przywrócenia Donalda Trumpa do władzy«” — opowiedział współpracownik zespołu Rep. Deana Phillipsa, D-Minn., w wywiadzie dla NBC News. Ta osoba, pracująca dla outsidera w wyścigu z Bidenem, ujawniła, że zorganizowała reklamę z własnej woli, bez wiedzy ani zgody kampanii.
Przechodząc do kampanii wyborczej po stronie Republikanów, z obozu Trumpa wypłynął uderzający fragment audio. Klip został artystycznie zmontowany, aby stworzyć iluzję, że gubernator Florydy Ron DeSantis był w dialogu z nikim innym, jak Adolfem Hitlerem.
W odwecie sztab wyborczy DeSantisa rozpowszechnił zmanipulowane zdjęcie przedstawiające Trumpa w serdecznym uścisku z Anthonym Faucim, co wywołało falę oburzenia w mediach społecznościowych.
Jako strażnicy integralności wyborczej, Voting Rights Lab czujnie obserwuje stale rosnącą falę inicjatyw ustawodawczych. W krajobrazie, w którym pojawiło się ponad 100 projektów ustaw w 40 stanach, zaangażowanie w zwalczanie dezinformacji wyborczej generowanej przez sztuczną inteligencję wydaje się niezachwiane. Z każdym wprowadzonym lub uchwalonym projektem ustawy wśród ustawodawców pojawia się niewątpliwe poczucie pilności, aby wzmocnić fundamenty demokracji. To krucjata ustawodawcza, która szybko zyskuje na popularności, pokazując zbiorową determinację, aby chronić nasze procesy demokratyczne przed zwodniczymi cieniami rzucanymi przez cyfrowe manipulacje.
W następstwie incydentu z robocall nastąpił wysyp działań legislacyjnych. Stany takie jak Arizona, Floryda i Wisconsin są teraz na czele, każdy z nich prezentuje inny trend regulacyjny, który jest uosobieniem zróżnicowanych podejść przyjmowanych w celu zwalczania tych technologicznych sztuczek.
Wisconsin niedawno uchwaliło prawo wymagające od podmiotów politycznych ujawniania treści generowanych przez AI, podczas gdy Floryda czeka na podpis gubernatora na podobnym projekcie ustawy. Arizona z kolei balansuje między regulacjami a prawami konstytucyjnymi, tworząc projekty ustaw, które mogłyby klasyfikować pominięcie etykiet w mediach politycznych AI jako przestępstwo w określonych warunkach. Inny projekt ustawy w Arizonie, będący przedmiotem rozpatrywania, otwiera drzwi osobom, które zostały skrzywdzone, do wszczęcia postępowania cywilnego przeciwko twórcom treści, dając im możliwość uzyskania odszkodowania pieniężnego.
Od 2019 r. zarówno Kalifornia, jak i Teksas wprowadziły odpowiednie przepisy.
W Indianie projekt ustawy, który zyskał dwupartyjne poparcie, trafia do biura gubernatora. Jeśli zostanie przyjęty, będzie nakazywał, aby reklamy wykorzystujące technologię deepfake wyraźnie stwierdzały: „Części tych mediów zostały zmodyfikowane cyfrowo lub syntetycznie wytworzone”. Dyrektywa ta będzie obejmować obrazy, filmy i treści audio. Kandydaci na szczeblu stanowym i federalnym, którzy poczują się dotknięci takimi treściami, będą mieli podstawę prawną do dochodzenia odszkodowania w drodze postępowania cywilnego.
Czerpiąc inspirację z oszukańczego incydentu z robocallem naśladującego prezydenta Bidena, w Kansas doszło do dwupartyjnego wysiłku. Pod przewodnictwem republikańskiego przedstawiciela stanu Pata Proctora wraz z demokratycznym liderem, przeforsowali oni propozycję ustawodawczą, która bezpośrednio rozwiązuje dylemat deepfake. Ten projekt ustawy nie tylko wzywał do obowiązkowego ujawniania reklam deepfake, ale także proponował surowe kary dla osób podszywających się pod urzędników wyborczych, takich jak sekretarze stanu, w złośliwym celu odstraszenia wyborców od głosowania. Obecnie projekt ustawy jest martwy, ale według Proctora może zostać przywrócony do życia.
Ustawodawstwo to tylko jeden aspekt wielotorowej strategii potrzebnej do rozwiązania problemu deepfake’ów generowanych przez AI. Podmioty takie jak NewDeal przewodzą inicjatywom, które wyposażają administratorów wyborów w narzędzia do skutecznego przeciwdziałania kampaniom dezinformacyjnym. Przygotowanie do reagowania na incydenty i kampanie podnoszące świadomość społeczną, takie jak te prowadzone przez sekretarzy stanu w Nowym Meksyku i Michigan, są kluczowymi elementami edukacji wyborców i wzmacniania infrastruktury demokratycznej.
Główne firmy technologiczne proaktywnie wyznaczają nowe standardy autentyczności treści online, ze szczególnym uwzględnieniem reklam inspirowanych przez AI. Meta, firma parasolowa dla platform społecznościowych, takich jak Facebook, Instagram i Threads, pilnie usuwa wszelkie reklamy, które są mylące lub pozbawione kontekstu, w szczególności te, które mogłyby potencjalnie podważyć proces wyborczy lub wyprzedzić wyniki wyborów. Wszystkie reklamy generowane przez AI podlegają tej rygorystycznej kontroli.
W związku z tymi wysiłkami Google złożyło deklarację, że przejrzystość musi towarzyszyć wszelkim obrazom, filmom lub dźwiękom ulepszonym przez AI używanym w reklamach wyborczych. Od listopada takie treści będą wymagały wyraźnych ujawnień. YouTube, pod skrzydłami Google, zobowiązuje się do przejrzystości, zapewniając, że jego użytkownicy będą mogli rozpoznać, kiedy treść została cyfrowo zmanipulowana. Te strategiczne posunięcia Meta i Google sygnalizują kluczową zmianę w kierunku przejrzystości i uczciwości w treściach cyfrowych, które konsumujemy, szczególnie w sferze politycznej.
Gdy poruszamy się po zawiłościach roku wyborczego, na który coraz większy wpływ ma technologia AI, pytanie pozostaje: Czy prawa stanowe są wystarczająco solidne, aby kontrolować rozprzestrzenianie się deepfake'ów? Ponieważ FEC wskazuje, że rezolucje krajowe mogą nie zostać przyjęte do końca roku, odpowiedzialność za zbudowanie bastionu przeciwko tym cyfrowym oszustwom spada na stanowe legislatury, firmy technologiczne i społeczeństwo.
Działania legislacyjne, zarówno proponowane, jak i uchwalone w różnych stanach, stanowią mozaikę obron, z których niektóre oferują wgląd w rygorystyczne środki niezbędne do zapewnienia uczciwej gry na naszych arenach politycznych. Zaangażowanie firm technologicznych w przejrzystość i uczciwość również dodaje warstwę bardzo potrzebnego nadzoru. Jednak, jakkolwiek wyrafinowane mogą być te środki, nie są nieprzepuszczalne. Zawsze będą nowe wyzwania i luki do zamknięcia, zwłaszcza gdy technologia rozwija się w szalonym tempie.
W tym środowisku edukacja i świadomość wyborców stają się tak samo kluczowe jak same prawa. Rozpowszechnianie informacji o tym, jak odróżnić media prawdziwe od syntetycznych, a także wnikliwe spojrzenie na to, co konsumujemy i udostępniamy, ma pierwszorzędne znaczenie. To wysiłek zbiorowy — połączenie działań prawnych, korporacyjnych i indywidualnych — który kształtuje naszą odporność na rosnącą falę dezinformacji generowanej przez sztuczną inteligencję.
W miarę zbliżania się wyborów w 2024 r. staje się oczywiste, że nie ma panaceum na zjawisko deepfake. Jednak rozwijające się wysiłki legislacyjne w połączeniu z proaktywnymi działaniami firm technologicznych i czujnym udziałem społeczeństwa przygotowują grunt pod solidną obronę. To są fundamenty, na których możemy mieć nadzieję zachować świętość naszych wyborów, wspierając dobrze poinformowany elektorat, który jest przygotowany do poruszania się po mętnych wodach cyfrowej propagandy.
Podsumowując, podczas gdy krajobraz ustawodawczy wciąż się kształtuje, a cyfrowe pole bitwy ciągle się zmienia, nasza zbiorowa czujność i zdolność adaptacji są kluczowe. Działania podejmowane dziś przez prawodawców, technologów i każdego wyborcę określą skuteczność naszej obrony przed deepfake’ami. W tym roku wyborczym i później ochrona prawdy pozostaje wspólną odpowiedzialnością — taką, którą musimy nieustannie starać się podtrzymywać.