paint-brush
Měl by se strojový výstup kvalifikovat pro ochranu proti volné řeči?podle@pawarashishanil
203 čtení

Měl by se strojový výstup kvalifikovat pro ochranu proti volné řeči?

podle Ashish Pawar6m2024/11/28
Read on Terminal Reader

Příliš dlouho; Číst

S tím, jak generativní systémy umělé inteligence jako GPT-4 produkují stále sofistikovanější obsah, vyvstává složitá otázka: měly by se jejich výstupy kvalifikovat jako „řeč“ v rámci ochrany svobody projevu? I když AI postrádá záměr, originalitu a odpovědnost – klíčové prvky lidské řeči – její realistické výstupy mohou být vlivné, kontroverzní a dokonce škodlivé. To vyvolává naléhavé právní a etické výzvy: Kdo vlastní nebo odpovídá za tyto výstupy – vývojář, uživatel nebo nikdo? Měly by je vlády regulovat jako nástroje, nebo si zaslouží stejnou ochranu jako lidský projev? Tento článek zkoumá mechaniku obsahu generovaného umělou inteligencí, ponoří se do skutečných nebezpečí, jako jsou nenávistné projevy a dezinformace, a navrhuje nový rámec pro kategorizaci výstupů umělé inteligence jako „simulovaná řeč“. Simulovaná řeč uznává schopnost umělé inteligence napodobovat lidský výraz a zároveň si uvědomuje, že chybí její jednání nebo záměr, což nám umožňuje regulovat strojově generovaný obsah, aniž bychom porušovali lidská práva na svobodu projevu. rozšiřuje se na generativní stroje, nebo je třeba nakreslit novou čáru?
featured image - Měl by se strojový výstup kvalifikovat pro ochranu proti volné řeči?
Ashish Pawar HackerNoon profile picture
0-item

Procházíte svůj kanál X a vidíte politický manifest s provokativním pojetím klimatické politiky. Je to dobře odůvodněné, vášnivé a sbírá tisíce retweetů. Později se dozvíte, že to vůbec nenapsal politik nebo dokonce člověk. Místo toho byl generován nějakým výkonným modelem umělé inteligence – jazykovým modelem trénovaným ke spojování slov na základě vzorů, které pozoroval v rozsáhlých oblastech internetu. Mění to váš názor na manifest? Mělo by to být? A tady je to, co narušuje dohodu: je tato „řeč“ stejným způsobem, jako by ji napsal člověk?


Hranice mezi výrazem řízeným člověkem a strojově generovaným obsahem je čím dál těžší rozeznat. Generativní modely umělé inteligence, jako je GPT-4 od OpenAI nebo Gemini od Googlu, nejen chrlí klíčová slova nebo jednoduché odpovědi – vytvářejí celé příběhy, designové argumenty a příležitostně podněcují kontroverze. Mohou psát básně, sepisovat petice nebo dokonce vytvářet pobuřující obsah. A to vyvolává zvláštní – a trochu nepříjemnou – otázku: jsou jejich výstupy skutečně „řečí“? Pokud ano, požívá tento projev stejné právní ochrany, jakou poskytujeme lidskému projevu? Nebo by měl obsah generovaný umělou inteligencí spadat do své vlastní kategorie se samostatnými pravidly?


Pojďme to prozkoumat nejen z pohledu „tvůrce obsahu“ na povrchové úrovni, ale skutečně se ponoříme do chaotické technické reality, právních důsledků a filozofických problémů. Protože, upřímně, není to tak přímočaré, jak si možná myslíte.

AI nemluví, počítá

Nejprve odhrňme oponu a prozkoumejme, co se vlastně děje, když AI generuje „řeč“. Generativní model umělé inteligence, jako je GPT-4, ve své podstatě nevytahuje věty z ničeho nebo nepřichází s originálními nápady. Místo toho pracuje na statistických pravděpodobností – tvrdá matematika jazyka.


Funguje to takto: Modely umělé inteligence jsou trénovány na rozsáhlých souborech dat, které zahrnují knihy, blogy, příspěvky na sociálních sítích a v podstatě cokoli jiného dostupného na internetu. Během školení tyto texty analyzují, aby pochopili vztahy mezi slovy. Slova nejsou uložena v počítači přesně jako slova; jsou přeměněny na to, čemu se říká žetony , které jsou jako malé stavební kameny. Fráze jako „Rychlá hnědá liška“ může být rozdělena na jednotlivé žetony jako „[The]“, „[quick]“, „[hnědá]“, „[liška]“. Umělá inteligence se pak dozví, který žeton bude pravděpodobně následovat jiný. Po požití dostatečného množství vzorů může předpovědět další token v sekvenci.


Přemýšlejte o tom na chvíli: AI nepřemýšlí o tom, co chce říct; je to výpočet matematické pravděpodobnosti dalšího slova. Pokud jej například vyzvete „Rychlá hnědá liška skočí“, model může předpovědět, že další logický žeton je „konec“. To není kreativita nebo záměr – to je jen matematika.


Ale tady je to nakopávané: když spojíte dostatek těchto předpovědí dohromady přes biliony parametrů (masivní, komplexní numerické váhy, které řídí, jak model funguje), dostanete něco neuvěřitelně realistického. Nahoďte techniky, jako jsou transformátorové architektury a pokročilé mechanismy pozornosti , a najednou se díváte na celou esej o klimatických změnách nebo plně realizovanou báseň o ztrátě a naději. Tyto výstupy působí šokujícím dojmem. Ale jsou řeči?

The Philosophical Rabbit Hole: Co je vlastně „řeč“?

Řeč jako pojem má velkou váhu. Nejde jen o to něco říct – jde o to mít co říct . Řeč předpokládá záměr, jednání a odpovědnost. Když píšu tento blog, vyjadřuji své myšlenky, ať už s nimi souhlasíte nebo ne. Pokud jsem špatně informovaný nebo urážlivý, jsem odpovědný za důsledky toho, co řeknu. Moje jméno je připojeno k tomuto příspěvku. Jsem myslitel a toto je můj výraz.


Ale generativní AI nemá myšlenky. Neví, co to říká, ani proč to říká. Když napíšete výzvu jako: „Napište přesvědčivý esej o tom, proč by elektromobily měly nahradit benzinová vozidla“, GPT-4 nezvažuje výhody a nevýhody čisté energie a geopolitiky. Použije jazykové vzorce, které zná, a poskytne vám statisticky nejpravděpodobnější větu, která bude následovat váš vstup. Přesto se stane něco magického: je to jako řeč.


A tady se věci lepí. Pokud AI produkuje něco, co ovlivňuje veřejný diskurz – řekněme, že generuje dezinformace o klimatu, které se stanou virálními – měla by být tato slova chráněna zákony o svobodě slova? Víme, že tyto myšlenky nevytvořil člověk, takže kdo, pokud někdo, je za ně zodpovědný? Podívejme se hlouběji.

Vývojáři, uživatelé nebo AI: Kdo je skutečný mluvčí?

Zde je místo, kde se debata o svobodě projevu mění v hádanku odpovědnosti: Pokud generativní výstupy umělé inteligence nejsou řízeny lidmi, kdo je vlastníkem těchto slov a kdo nese odpovědnost, když obsah selže?


Vývojáři: Společnosti jako OpenAI nebo Google často argumentují, že pouze vytvářejí nástroje – neutrální platformy, které uživatelé tvarují a řídí prostřednictvím výzev. "Právě jsme trénovali hru na klavír," říkají. "Je na ostatních, aby rozhodli, jaké melodie budou hrát." Tato metafora však věci příliš zjednodušuje. Výstupy AI jsou silně ovlivněny datovými sadami, které si vývojáři vybrali, a tím, jak své modely doladili. Zkreslená datová sada má za následek zkreslené výstupy – pokud se objeví škodlivý text, mohou tvůrci skutečně tvrdit neutralitu?


- Uživatelé: A co osoba vkládající výzvu? Někteří tvrdí, že by měli nést odpovědnost. Pokud řeknu AI, aby „napsala pobuřující článek šířící falešné informace o vakcínách“, a ono to vyhovuje, měl jsem zjevně úmysl. To je však složitější, když uživatelé nevědomky vyvolávají škodlivé výstupy nebo když výstupy přecházejí mimo skript do oblastí mimo kontrolu uživatele.


- Samotná AI: Mohla by být AI považována za mluvčího? Někteří futuristé spekulovali o tom, že systémy AI získají „digitální osobnost“, ale tato myšlenka je velmi problematická. Stroje nemají úmysl, nemohou nést odpovědnost a rozšíření práv na svobodu projevu na stroje vytváří pole dne pro právní chaos.


Pravdou je, že nikdo nechce nést plnou odpovědnost. Vývojáři bagatelizují odpovědnost, uživatelé nad tím krčí rameny jako bez úmyslu a AI je, no, jen stroj. A přesto může být následný dopad obsahu generovaného umělou inteligencí obrovský.

Co se stane, když výstupy AI způsobí poškození?

Pojďme do směsi přidat několik scénářů ze skutečného světa, abychom pocítili váhu problému.


- Případ 1: Projevy nenávisti

Řekněme, že generativní systém umělé inteligence produkuje nestydatě rasistický nebo sexistický obsah. OpenAI a další vývojáři začleňují ochranná opatření – jako je posílení učení z lidské zpětné vazby (RLHF) – aby minimalizovali škody, ale žádný model není dokonalý. Toxicita může stále proklouznout. Když se to stane, kdo je na vině? AI neví, co dělá. Bylo to selhání v datové sadě OpenAI? Byl lidský uživatel při nabádání nezodpovědný? Nebo necháme tyto výstupy jen tak bez kontroly?


- Případ 2: Dezinformace

Nyní si představte, že umělá inteligence generuje hyperdůvěryhodné falešné zpravodajské články o politickém kandidátovi a zaplavuje sociální média. Na rozdíl od propagandy vytvořené lidmi by tyto dezinformace mohly být masově produkovány ve velkém měřítku s minimálním úsilím. Jsou takové výstupy kvalifikovány jako chráněné politické projevy, nebo jsou veřejným hazardem, který by měl být přísně regulován (nebo přímo zakázán)?


- Případ 3: Umělecký výraz

Co když AI vytváří umění nebo poezii? Je to chráněno jako „výraz“ podle zásad svobody projevu? A když umělá inteligence vyhraje umělecké soutěže nebo vytvoří kreativní díla, kdo vlastní práva k těmto výstupům? Má vývojář? uživatel? Nebo je to veřejné vlastnictví?


Odpovědi jsou nejasné, a proto jsou soudy a politici zaskočeni. Toto jsou okrajové případy, které nikdo nepředpokládal, když byly sepsány zákony o svobodě slova.

Je čas na novou kategorii? "Simulovaná řeč"

Může být užitečné kategorizovat generativní výstupy AI nikoli jako chráněnou řeč, ale jako „simulovanou řeč“. To by ukázalo, že zatímco výstupy AI odrážejí lidský výraz, postrádají záměr a odpovědnost, které skutečně definují to, co nazýváme „řeč“. Díky této nové kategorii bychom mohli regulovat obsah generovaný umělou inteligencí, aniž bychom podkopali lidská práva na svobodu projevu.


Například:

- Výstupy generované umělou inteligencí mohou vyžadovat tagování metadat, aby bylo indikováno, že jsou generované strojově (např. „Generated by GPT-4“).

- Škodlivé výstupy (např. dezinformace, extremistická propaganda) by mohly čelit zvláštní kontrole nebo dokonce omezením ve vysoce rizikových kontextech, jako jsou volby.

- API generující obsah umělé inteligence by mohla podléhat „etickému omezení“, aby se zabránilo rozsáhlým dezinformačním kampaním.


Takový rámec by nám dal prostor k tomu, abychom s výstupy AI zacházeli tak, jak ve skutečnosti jsou: výkonné nástroje, nikoli volné výrazy.

Závěrečné myšlenky: Řeč pro lidi, nástroje pro stroje

Pokud budu znít opatrně, je to proto, že tato debata má mnohem větší sázky než povrchní argumenty o tom, „co je řeč“. Přirovnávání generativních výstupů umělé inteligence k lidské řeči riskuje bagatelizaci účelů svobody projevu – jednání spojeného se záměrem, kreativitou a odpovědností. Věřím, že řeč je neodmyslitelně lidská záležitost. Vyžívá se v odpovědnosti a cílevědomé výměně myšlenek. Stroje tohoto ducha nesdílejí, i když jejich výstupy napodobují naše.


Ve chvíli, kdy začneme chránit strojově generovaná slova podle stejných zákonů, které brání lidské vyjadřování, rozmělníme význam svobody slova. Oslavujme umělou inteligenci za to, čím je – fenomenální nástroj –, ale také si uvědomme, kde by se její dosah měl zastavit. Koneckonců, svoboda slova je o lidskosti, ne o pravděpodobností v neuronové síti.


Takže, jaký je váš názor? Jsme na kluzkém svahu, nebo jsem jen přehnaně opatrný? Dejte mi vědět – jen se ujistěte, že jste to vy, ne nějaký AI robot :)

L O A D I N G
. . . comments & more!

About Author

Ashish Pawar HackerNoon profile picture
Ashish Pawar@pawarashishanil
Ashish Pawar is an experienced software engineer skilled in creating scalable software and AI-enhanced solutions across data-driven and cloud applications, with a proven track record at companies like Palantir, Goldman Sachs and WHOOP.

ZAVĚŠIT ZNAČKY

TENTO ČLÁNEK BYL PŘEDSTAVEN V...