Сиз X түрмөгүңүздү жылдырып жатасыз жана сиз климаттык саясатты чагымчылдык менен кабыл алган саясий манифестти көрүп жатасыз. Бул жүйөлүү, жалындуу жана миңдеген ретвиттерди чогултат. Кийинчерээк аны саясатчы, атүгүл адам да жазбаганын билесиң. Анын ордуна, ал кандайдыр бир күчтүү AI модели тарабынан түзүлгөн - Интернеттин кеңири аймактарында байкалган үлгүлөрдүн негизинде сөздөрдү бириктирүүгө үйрөтүлгөн тил модели. Бул манифестке болгон көз карашыңызды өзгөртөбү? Бул керекпи? Ал эми келишимди бузуучу: бул «сөз» аны адам жазгандай эле болобу?
Адам башкарган экспрессия менен машина жараткан мазмундун ортосундагы чекти аныктоо барган сайын кыйын болуп баратат. OpenAI's GPT-4 же Google'дун Gemini сыяктуу генеративдик AI моделдери жөн гана ачкыч сөздөрдү же жөнөкөй жоопторду түкүрбөйт — алар бүтүндөй баяндарды, дизайн аргументтерин жаратып, кээде талаш-тартыштарды жаратат. Алар ыр жазып, петициялардын долбоорун жаза алышат, ал тургай, сезгенүүчү мазмунду жаратышы мүмкүн. Бул кызык жана бир аз ыңгайсыз суроону туудурат: алардын натыйжалары чындап эле "сүйлөө"бү? Эгер ошондой болсо, анда ал сөз биз адамдын сөзүнө көрсөткөн мыйзамдуу коргоого ээби? Же AI тарабынан түзүлгөн мазмун өзүнчө эрежелер менен толугу менен өзүнүн категориясына кириши керекпи?
Келгиле, муну жер үстүндөгү "контент жаратуучунун" көз карашы менен эле эмес, чындап эле башаламан техникалык чындыкка, юридикалык кесепеттерге жана философиялык туңгуюктарга батып көрөлү. Анткени, чынын айтсам, бул сиз ойлогондой түз эмес.
Биринчиден, көшөгөнү артка тартып, AI "сөздү" жаратканда эмне болуп жатканын карап көрөлү. Негизинен, GPT-4 сыяктуу генеративдик AI модели сүйлөмдөрдү абадан чыгарбайт же оригиналдуу идеяларды чыгарбайт. Тескерисинче, ал статистикалык ыктымалдуулуктар менен иштейт - тилдин оор математикасы.
Ал кандайча иштейт: AI моделдери китептерди, блогдорду, социалдык медиа постторун жана негизинен интернетте жеткиликтүү болгон нерселердин бардыгын камтыган кеңири маалымат топтомдорунда үйрөтүлгөн. Тренинг учурунда алар сөздөрдүн ортосундагы байланышты түшүнүү үчүн бул тексттерди талдап чыгышат. Сөздөр компьютерде сөз сыяктуу сакталбайт; алар токендер деп аталган нерсеге айланган, алар кичинекей курулуш блокторуна окшош. "Ыкчам күрөң түлкү" сыяктуу сөз айкашын `[The]`, `[тез]`, `[күрөң]`, `[түлкү]` сыяктуу жеке энбелгилерге бөлсө болот. Андан кийин AI кайсы токен экинчисин ээрчий турганын билет. Ал жетиштүү үлгүлөрдү жуткандан кийин, ал кийинки белгини ырааттуулукта алдын ала айта алат.
Бул жөнүндө бир аз ойлонуп көрүңүз: AI эмне айткысы келгени жөнүндө ойлонбойт; ал кийинки сөздүн математикалык ыктымалдыгын эсептеп жатат. Мисалы, эгер сиз аны "Тез күрөң түлкү секирет" деп сунуштасаңыз, модель логикалык кийинки белги "бүттү" деп божомолдой алат. Бул чыгармачылык же ниет эмес, бул жөн гана математика.
Бирок бул жерде эң негизгиси: триллиондогон параметрлер боюнча (модель кандай иштээрин жетектей турган массалык, татаал сандык салмактар) бул болжолдоолорду жетиштүү түрдө бириктиргенде, укмуштуудай жандуу нерсеге ээ болосуз. Трансформатордук архитектура жана өнүккөн көңүл буруу механизмдери сыяктуу ыкмаларды колдонуңуз, күтүлбөгөн жерден сиз климаттын өзгөрүшү жөнүндө бүтүндөй эссени же жоготуу жана үмүт жөнүндө толук аткарылган ырды карап жатасыз. Бул жыйынтыктар адамды таң калтырат. Бирок алар сүйлөйбү?
Кеп концепция катары чоң жүктү көтөрөт. Бул жөн гана бир нерсе айтуу эмес, айта турган нерсеге ээ болуу. Сүйлөө ниетти, агенттикти жана жоопкерчиликти билдирет. Бул блогду жазганда мен өз оюмду айтып жатам, сиз макулсузбу же жокпу. Эгер мага туура эмес маалымат берилсе же таарынса, мен айткан сөздөрүмдүн кесепеттери үчүн жооп берем. Менин атым ушул постко тиркелет. Мен ойчулмун, бул менин билдирүүм.
Бирок генеративдик интеллекттин ойлору жок. Эмне деп айтып жатканын, эмне үчүн айтып жатканын билбейт. "Электр машиналары бензин менен жүрүүчү унааларды эмне үчүн алмаштыруу керектиги жөнүндө ынандырарлык эссе жазыңыз" деген сыяктуу суроону тергениңизде, GPT-4 таза энергия менен геосаясаттын жакшы жана жаман жактарын таразага салбайт. Ал өзү билген тил үлгүлөрүн тартат жана сиздин киргизгениңизге ылайык эң статистикалык сүйлөмдү берет. Бирок, бир сыйкырдуу нерсе болот: ал сүйлөө сыяктуу сезилет .
Мына ушул жерде нерселер жабышып калат. Эгерде AI коомдук дискурска таасир этүүчү нерсени чыгарса, келгиле, ал климаттык дезинформацияны жаратып, вируска тарап кетсе, бул сөздөр сөз эркиндиги боюнча мыйзамдарга ылайык корголушу керекпи? Биз ал идеяларды адам чыгарбаганын билебиз, андыктан алар үчүн ким жооп берет? Келгиле, тереңирээк изилдеп көрөлү.
Бул жерде сөз эркиндиги боюнча талаш-тартыштар отчеттуулук баш катырмасына айланат: генеративдик AI натыйжалары адам тарабынан башкарылбаса, ал сөздөр кимге таандык жана мазмун туура эмес иштесе, ким жооп берет?
- Иштеп чыгуучулар: OpenAI же Google сыяктуу компаниялар көбүнчө инструменттерди куруп жатабыз деп талашышат — колдонуучулар калыптандыруучу жана эскертүүлөр аркылуу башкарган нейтралдуу платформаларды. «Биз пианинодо жаңы эле машыкканбыз», - дешет алар. "Кайсы обонду ойноону башкалар чечет." Бирок бул метафора нерселерди өтө жөнөкөйлөтөт. AI натыйжаларына иштеп чыгуучулар тандаган маалымат топтомдору жана алардын моделдерин кантип туура жөндөшү чоң таасир этет. Бир жактуу берилиштер жыйындысы бир жактуу жыйынтыктарга алып келет — эгер зыяндуу текст пайда болсо, жаратуучулар чындап эле бейтараптуулукту талап кыла алабы?
- Колдонуучулар: Билдирүүнү киргизген адам жөнүндө эмне айтууга болот? Кээ бирөөлөр жоопкерчиликти тартыш керек деп эсептешет. Эгерде мен AIга "вакциналар жөнүндө жалган маалымат тараткан, күйгүзүүчү макала жаз" десем жана ал аткарылса, менин ниетим бар болчу. Бул, бирок, колдонуучулар билбестен зыяндуу жыйынтыктарды сунуштаганда же натыйжалар колдонуучу көзөмөлдөбөгөн аймактарга скрипттен четтеп кеткенде, татаалыраак.
- AI өзү: AI спикер катары каралышы мүмкүнбү? Кээ бир футурологдор AI системалары "Санариптик инсандыкка" ээ болот деп ойлошкон, бирок бул идея абдан көйгөйлүү. Машиналардын ниети жок, жоопкерчиликти көтөрө албайт жана машиналарга сөз эркиндигин кеңейтүү мыйзамдуу башаламандык үчүн талаа күнүн түзөт.
Чындык, эч ким толук жоопкерчилик алгысы келбейт. Иштеп чыгуучулар жоопкерчиликти басаңдатып, колдонуучулар аны күтүлбөгөн жерден четке кагышат, ал эми AI - бул жөн эле машина. Ошентсе да, AI тарабынан түзүлгөн мазмундун ылдыйкы таасири чоң болушу мүмкүн.
Келгиле, маселенин оорчулугун сезүү үчүн кээ бир реалдуу сценарийлерди аралаштыралы.
- 1-жагдай: Жек көрүү сөздөрү
Генеративдик AI системасы ачыктан-ачык расисттик же сексисттик мазмунду жаратат деп айтыңыз. OpenAI жана башка иштеп чыгуучулар зыянды азайтуу үчүн коопсуздук чараларын киргизишет, мисалы, адамдын пикирлеринен үйрөнүү (RLHF) - бирок эч бир модель идеалдуу эмес. Уулуулугу дагы эле өтүп кетиши мүмкүн. Бул болгондо, ким күнөөлүү? AI эмне кылып жатканын билбейт. OpenAIдин маалымат топтомунда ката кеттиби? Колдонуучу адам жоопкерсиздик менен жооп бергенби? Же бул жыйынтыктарды жөн эле текшербей коё беребизби?
- 2-жагдай: Дезинформация
Эми элестетип көрүңүзчү, AI саясий талапкер жөнүндө гипер-ишенимдүү жалган жаңылык макалаларды жаратат жана социалдык медианы каптады. Адам чыгарган пропагандадан айырмаланып, бул туура эмес маалымат минималдуу күч менен массалык түрдө чыгарыла алат. Мындай жыйынтыктар корголгон саясий сөз катары квалификациялуубу же алар катуу жөнгө салынышы керек болгон коомдук коркунучпу (же түздөн-түз тыюу салынган)?
- 3-жагдай: Көркөм экспрессия
AI искусствону же поэзияны жараткандачы? Ал сөз эркиндигинин принциптери боюнча “сөз” катары корголгонбу? Ал эми AI көркөм сынактарда жеңип чыкканда же чыгармачыл иштерди жаратканда, ал натыйжаларга укук кимге таандык? Иштеп чыгуучубу? Колдонуучу? Же бул коомдук доменби?
Жооптор бүдөмүк, ошондуктан соттор менен саясатчыны камырабай кармап калышты. Бул сөз эркиндиги жөнүндө мыйзамдар жазылганда эч ким күтпөгөн эң акыркы учурлар.
Генеративдик AI натыйжаларын корголгон кеп катары эмес, “имитацияланган кеп” катары категорияга бөлүү пайдалуу болушу мүмкүн. Бул AI натыйжалары адамдын көрүнүшүн чагылдырганы менен, аларда биз "сүйлөө" деп атаган нерсени чындап аныктай турган ниет жана жоопкерчилик жок экенин аныктайт. Бул жаңы категория менен биз адамдын сөз эркиндигинин укуктарына шек келтирбестен, AI тарабынан түзүлгөн мазмунду жөнгө сала алабыз.
Мисалы:
- AI тарабынан түзүлгөн жыйынтыктар алардын машина тарабынан түзүлгөнүн көрсөтүү үчүн метадайындардын тегдерин талап кылышы мүмкүн (мисалы, “GPT-4 тарабынан түзүлгөн”).
- Оор зыяндуу натыйжалар (мисалы, туура эмес маалымат, экстремисттик пропаганда) шайлоо сыяктуу жогорку кооптуу контексттерде өзгөчө текшерүүгө же чектөөлөргө дуушар болушу мүмкүн.
- Масштабда AI мазмунун жаратуучу API'лер масштабдуу дезинформациялык кампаниялардын алдын алуу үчүн "этикалык чектөөгө" дуушар болушу мүмкүн.
Мындай алкак бизге AI натыйжаларын алар чындыгында кандай болгондугу үчүн кароого мүмкүнчүлүк берет: күчтүү инструменттер, эркин сүйлөмдөр эмес.
Эгер мен этият болсом, анда бул талаш-тартыштардын “сөз деген эмне” деген жер үстүндөгү аргументтерден алда канча чоңураак болушу. Генеративдик AI натыйжаларын адамдын сүйлөө сөзүнө теңөө, сөз эркиндигинин максаттарын тривиалдаштыруу коркунучу бар — бул ниетке, чыгармачылыкка жана жоопкерчиликке байланыштуу. Мен сүйлөө табиятынан адамдык ишкана деп эсептейм. Жоопкерчиликке жана ой-пикирлерди максатка ылайык алмашууга байланыштуу. Машиналар бул духту бөлүшпөйт, атүгүл алардын натыйжалары биздикиндей болсо да.
Адамдын сөздөрүн коргогон мыйзамдарга ылайык, биз машинадан жасалган сөздөрдү коргой баштаганда, сөз эркиндигинин маанисин суюлтуп алабыз. Келгиле, AI эмне үчүн майрамдайлы — феноменалдуу курал — бирок анын жетүүсү кайда токтошу керектигин да билели. Анткени, сөз эркиндиги нейрондук тордогу ыктымалдуулуктар эмес, адамзат жөнүндө.
Анда сиздин оюңуз кандай? Биз тайгак жолдо жүрөбүзбү же мен өтө эле этият болуп жатамбы? Мага кабарлаңыз — жөн гана AI бот эмес, сиз кирип жатканыңызды текшериңиз :)