Адам сияқты мәтін, кескіндер, аудио және тіпті бейнелер сияқты жаңа мазмұнды жасау үшін пайдалануға болатын генеративті AI технологиясы. Бұл технология керемет танымал және кең таралған. Europol есебінде желідегі мазмұнның 90%-ы бірнеше жыл ішінде AI арқылы жасалуы мүмкін деп болжайды. Дегенмен, Генеративті AI - екі жүзді қылыш. Бір жағынан, генеративті AI әртүрлі секторларда үлкен әлеуетке ие. Ол интеллектуалды чат-боттар арқылы тұтынушыларға қызмет көрсетуді жақсарта алады, өнер мен музыканы генерациялау арқылы шығармашылық салаларға көмектеседі, тіпті күрделі биологиялық процестерді модельдеу арқылы медициналық зерттеулерге көмектеседі. Дегенмен, осы инновацияларды басқаратын сол технологияны зиянды актерлер де қаруландыруы мүмкін.
Жақында бұл технологияны алаяқтық әрекеттер үшін теріс пайдалану жиілеп кетті. Генеративті модельдер барған сайын жетілдірілген сайын, оларды зиянды мақсаттарда пайдалану үшін нашар актерлар қолданатын әдістер де арта түседі. Генеративті AI-ны теріс пайдаланудың әртүрлі тәсілдерін түсіну сенімді қорғанысты дамыту және цифрлық платформалардың тұтастығы мен сенімділігін қамтамасыз ету үшін өте маңызды. Жаман актерлердің бұл технологияны қолдануының жаңа және күрделі тәсілдері барған сайын жетілдіріліп келе жатқанымен, біз құрбандар кеңінен мәлімдеген генеративті AI арқылы жеңілдетілген алаяқтықтың әртүрлі түрлерін зерттейтін боламыз.
Генеративті AI-ның ең танымал қолдануларының бірі - терең фейк бейнелерді жасау - гиперреалистік, бірақ мүлдем жалған адамдарды бейнелеу. Жоғары мәртебелі саясаткерлер, әсіресе соғыстар немесе сайлаулар сияқты ірі оқиғалар контекстінде нысанаға алынса, оның салдары ауыр болуы мүмкін. Deepfakes кең таралған дүрбелең тудыруы және маңызды оқиғаларды бұзуы мүмкін. Мысалы, соғыс кезінде Украина президенті Владимир Зеленскийдің тапсырылғаны туралы терең фейк видео тарады, ал Үндістанда сайлау алдында, Одақтың ішкі істер министрі Амит Шахтың барлық касталық ескертпелер жойылады деп мәлімдегені жалған түрде көрсетілді, бұл екі ел арасындағы шиеленісті тудырды. қауымдастықтар. Жақында Дональд Трамптың тұтқындалғаны туралы жалған сурет X сайтында тарады (1-суретті қараңыз).
Жетілдірілген AI-мен жұмыс істейтін чат-боттар адам сөйлесулерін таңқаларлық дәлдікпен еліктей алады. Алаяқтар банк өкілдерінің кейпін көрсету үшін AI чат-боттарын пайдаланып фишингтік шабуылдар жасайды. Клиенттер бұл боттардан қоңыраулар мен хабарламаларды алады, олар есептік жазба мәселелерін шешу сылтауымен құпия ақпаратты сенімді түрде сұрайды. Көптеген бейхабар адамдар бұл алаяқтардың құрбаны болып, айтарлықтай қаржылық шығынға ұшырайды. Алаяқтар алаяқтық транзакцияларға рұқсат беру үшін басшылардың шынайы дауыстық жазбаларын жасау үшін AI пайдалана алады, бұл схема «бас директордың алаяқтығы» деп аталады. Айта кетерлік жайт , Гонконгтағы трансұлттық фирманың қызметкері бейнеконференцияда компанияның бас қаржы директоры болып көріну үшін терең фейк технологиясын қолданып алаяқтарға 25 миллион доллар төледі деп алданып қалған. Бұл алаяқтар жоғары лауазымды шенеуніктердің сенімі мен беделін пайдаланып, бизнеске айтарлықтай қаржылық шығын келтіреді.
Генеративті AI әлеуметтік желілер арқылы тез таралатын сенімді жалған жаңалықтар мақалаларын да жасай алады. COVID-19 пандемиясы кезінде көптеген жалған жаңалықтар мақалалары мен әлеуметтік желілердегі жазбалар вирус пен вакциналар туралы жалған ақпарат таратты. Whatsapp-та және басқа да әлеуметтік желілерде кейбір аюрведиялық дәрі-дәрмектер COVID-19-ны емдей алады деп мәлімдеген көптеген жалған жаңалықтар болды, бұл кең таралған дүрбелеңге және өзін-өзі емдеудің дұрыс емес әдістеріне әкелді. Генеративті AI көмегімен алаяқтардың кең ауқымды жалған жаңалықтарды шығаруға және адамдар арасында дүрбелең тудыруға тырысуы өте аз. Мысалы, сіз нақты адамдармен, нақты орындармен манипуляцияланған кескіндерді оңай жасай аласыз және оны сенсациялық жаңалықтарға айналдыра аласыз. Мұнда OpenAI компаниясының DALL-E моделі арқылы жасалған жер сілкінісінен зардап шеккен Тәж-Махалдың жалған бейнесін көрсететін бір мысал келтірілген (2-сурет).
3-суретте Мумбайдағы Тәж қонақ үйінің өртеніп жатқанын (2008 жылғы лаңкестік оқиғаны еске түсіреді) көрсететін тағы бір сурет бар.
Киберқылмыскерлер, сондай-ақ қаскүнемдік ниеті бар адамдар Генеративті AI технологиясын пайдаланып, беделін түсіретін қудалау науқандарын немесе онлайн қудалаудың дәстүрлі түрлерін қолдана алады. Жәбірленушілер жеке адамдар немесе қоғам қайраткерлері болуы мүмкін. Тактика жалған суреттерді, жалған бейнелерді компроматтық жағдайларда немесе манипуляцияланған орталарда жасауды қамтуы мүмкін. Мысалы, 2024 жылдың қаңтарында поп-мегажұлдыз Т Айлор Свифт әлеуметтік медиа платформаларында кеңінен тараған жасанды интеллект көмегімен жасалған сексуалды, келісімсіз терең фейк суреттерінің соңғы танымал нысанасына айналды .
Генеративті AI дауыстар мен ұқсастықтарды көшіре алады, бұл адамдарға дерлік кез келген нәрсені айтып немесе істеп жатқандай көрінуге мүмкіндік береді. Бұл технология «deepfake» бейнелеріне ұқсас, бірақ дауыстарға қатысты. AI арқылы жасалған дауыстар алаяқтықты күшейту үшін пайдаланылады, бұл оларды сенімдірек етеді. Мысалы, біреу сіздің дауысыңызды интернеттен алып, оны әжеңізге қоңырау шалып, одан ақша сұрау үшін пайдалана алады. Қауіпті актерлер әлеуметтік медиадан немесе басқа дыбыс көздерінен біреудің бірнеше секундтық дауысын оңай ала алады және сол адам айтқысы келетін барлық сценарийлерді жасау үшін генеративті AI пайдалана алады. Бұл мақсатты адам қоңыраудың достары немесе туыстары екеніне сенеді және осылайша жақын адамы қажет деп ойлап, алаяққа ақша жіберуге алданып қалады.
Романтикалық алаяқтық күшейіп келеді және Үндістанда бұл елдегі адамдардың 66 пайызы алдамшы онлайн танысу схемаларының құрбаны болғаны туралы есеп болды. Толығымен жалған тұлғаны Generative AI көмегімен жасауға болады. Алаяқтар төлқұжат немесе aadhar карталары сияқты жасанды құжаттама жасай алады. Олар тіпті әдемі үй мен сәнді көліктің алдындағы жалған адамның суреті сияқты өздері туралы жалған бейнелер жасай алады. Олар тіпті жалған дауыспен қоңырау шала алады және AI-ның нақты адам екеніне сендіре алады және сайып келгенде, эмоционалды түрде оларға деген сезімді дамытуға, кейінірек сізден ақша немесе сыйлықтар алуға бағытталған. Мұнда Midjourney боты арқылы жасалған жалған адамның AI жасалған кескінінің мысалы (4-суретте) берілген.
Алдамшы жарнама жалған шағымдарды, тіпті мүлдем жалған өнімдерді немесе қызметтерді жасауды қамтуы мүмкін. Бұл тұтынушыларды хабарсыз немесе жалған сатып алулар жасауға әкелуі мүмкін. GenAI электрондық коммерция платформаларында жалған синтетикалық өнім шолуларын, рейтингтерін және ұсыныстарын жасау үшін пайдаланылуы мүмкін. Бұл жалған шолулар сапасыз өнімдердің беделін жасанды түрде көтеруі немесе шынайы өнімдердің беделіне нұқсан келтіруі мүмкін. Алаяқтар GenAI-ді жалған өнімдер тізімін немесе заңды болып көрінетін веб-сайттарды жасау үшін пайдалана алады, бұл тұтынушыларға шынайы және жалған сатушыларды ажыратуды қиындатады. Чатботтар немесе AI негізіндегі тұтынушыларға қызмет көрсету агенттері сатып алушыларға жаңылыстыратын ақпарат беру үшін пайдаланылуы мүмкін, бұл сатып алу туралы ақпаратсыз шешімдер қабылдауға әкелуі мүмкін. Осылайша, жалған бизнестің бүкіл экожүйесін оңай орнатуға болады.
Жоғарыда келтірілген мысалдар арқылы зиянды мазмұнды Генеративті AI көмегімен қорқынышты оңайлықпен жасауға болатыны анық. Генеративті AI мазмұнның көлемі мен күрделілігін арттыра отырып, өнімділік құралы ретінде әрекет етеді. Әуесқойлар ойынға оңай енеді және қаржылық пайда үшін әлеуметтік медианы пайдалануға айтарлықтай қадам бар. Күрделі жалған ақпаратты жасаушылар өздерінің мазмұнын бұрын қол жеткізе алмаған елдер мен адамдарға жеткізу үшін өздерін басқа тілдерге аудару үшін AI-ны масштабтауға және қолдануға өте қабілетті. Сергек болу және өзін AI-мен жұмыс істейтін алаяқтықтан қорғау үшін әркім жасай алатын бірнеше қадамдар бар. Сауаттылық пен қырағылық AI-мен басқарылатын алаяқтықтан қорғаудың кілті болып табылады.
Әрқашан мазмұнның көзін тексеріңіз. Барлық ірі технологиялық компаниялар әзірлеушілерге су таңбаларын шифрлауға мүмкіндік беретін негізгі шешім ретінде AI жасалған мазмұнды Watermarking болып табылады, бұл AI жасаған AI-ді жақсырақ анықтауды және түпнұсқалығын қамтамасыз етеді, жалпы технологиялық емес адамдар тобы мұндай технологиялар туралы білмейді және білмейді. су белгілерін қалай анықтауға болады немесе AI жасаған мазмұнды анықтау құралдарын пайдалану. Дегенмен, кез келген күдікті суреттің, бейненің немесе дауыстық хабарламаның көзін әрқашан тексеру әркім жасай алатын негізгі нәрсе болып табылады. Егер бейнеленген адамға сәйкес келмейтін бейнені алсаңыз, басқа дереккөздермен салыстырып тексеріп, адаммен тікелей байланысыңыз. Мысалы, саясаткердің жалынды мәлімдемелер жасаған терең фейк видеосы ресми арналар арқылы тексерілуі керек. Туысқанының ұрланған немесе қайғы-қасіретке ұшыраған видеосы адамға қоңырау шалу немесе өзара байланыс арқылы тексерілуі керек. Сол сияқты, құпия ақпаратты сұрайтын жоғары лауазымды тұлғаның немесе банк өкілінің дауыстық қоңырауын растау үшін банктің ресми клиенттерге қызмет көрсету нөмірі сияқты белгілі және сенімді нөмірге қайта қоңырау шалу арқылы тексеруге болады.
Жеке ақпаратты бөлісуді шектеңіз. Алаяқтар сенімді фейк пен дауыстық хабарламалар жасау үшін әлеуметтік желілердегі мәліметтерді жиі пайдаланады. Мекенжайыңыз, телефон нөміріңіз және қаржылық мәліметтеріңіз сияқты құпия ақпаратты жариялаудан аулақ болыңыз. Жазбаларыңыз бен жеке ақпараттарыңыздың көрінуін шектеу үшін әлеуметтік медиа тіркелгілеріндегі құпиялылық параметрлерін реттеңіз. Тек сенімді достарыңыз бен отбасыңызға профиліңізді және жазбаларыңызды көруге рұқсат етіңіз. Facebook немесе Instagram-да жазбаларыңызды тек достарыңыз көре алатынына көз жеткізу үшін құпиялылық параметрлерін қарап шығуға және реттеуге болады. Демалыс жоспарлары сияқты мәліметтерді бөлісуден аулақ болыңыз, оларды алаяқтар сіз жоқта сізді нысанаға алу үшін пайдалануы мүмкін. Алаяқтар сіздің отбасыңыз бен достарыңызды жалған бейнелеріңізбен және дауыстық қоңырауларыңызбен нысанаға алмауы үшін профиліңіз бен достарыңыздың тізімін құпия сақтаңыз. Желіде қолжетімді жеке ақпарат көлемін шектеу алаяқтардың сіз туралы деректер жинауын қиындатады. Бұл олардың сендіретін терең фейктерді жасауы немесе сізді еліктету ықтималдығын азайтады.
Біз AI басқаратын дәуірдің табалдырығында тұрғанда, инновациялар мен пайдалану арасындағы шайқас күшейе түсуде. Жасанды интеллектке негізделген алаяқтықтың өсуі жай ғана қиындық емес, бұл әрекетке шақыру. Сенімді терең фейктерді, шынайы дауыс клондарын және күрделі фишингтік схемаларды жасауға қабілетті генеративті AI көмегімен алдаудың әлеуеті бұрын-соңды болмаған. Дегенмен, осы қауіптердің арасында мүмкіндік бар: цифрлық қауіпсіздік пен сенімге деген көзқарасымызды қайта анықтау мүмкіндігі. Білу жеткіліксіз; біз озық анықтау жүйелерін және халыққа білім беру науқандарын дамыту үшін бірдей озық технологияны пайдалана отырып, белсенді болуымыз керек. AI болашағы алдын ала анықталмаған. Бүгінгі таңда шешуші әрекетті қолдана отырып, біз генеративті AI уәдесі оның қауіп-қатеріне ұшырамай орындалатын цифрлық ландшафтты қалыптастыра аламыз. Бұл бәріміз үшін қауіпсіз цифрлық әлемді қамтамасыз ететін өрлеу, жаңашылдық және қорғау сәті болсын.