paint-brush
KI-bedrog: hoe generatiewe KI vir bedrog gewapen worddeur@truptibavalatti
687 lesings
687 lesings

KI-bedrog: hoe generatiewe KI vir bedrog gewapen word

deur Trupti Bavalatti7m2024/10/22
Read on Terminal Reader

Te lank; Om te lees

Generatiewe AI, terwyl dit ongelooflike potensiaal bied, word toenemend uitgebuit vir kwaadwillige doeleindes soos diepvals video's, finansiële swendelary en verkeerde inligting. Bedrieërs gebruik KI om individue na te doen, vals nuus te skep, stemme te manipuleer en selfs nie-konsensuele inhoud te genereer. Dit hou 'n beduidende bedreiging in, veral in kritieke gebiede soos verkiesings, aanlyn sekuriteit en sosiale media. Die artikel beklemtoon verskeie voorbeelde van generatiewe KI wat vir bedrog gebruik word en gee wenke oor hoe om jouself te beskerm teen hierdie KI-gedrewe swendelary. Bewustheid en proaktiewe sekuriteitsmaatreëls is noodsaaklik om teen hierdie ontwikkelende bedreigings te beskerm.
featured image - KI-bedrog: hoe generatiewe KI vir bedrog gewapen word
Trupti Bavalatti HackerNoon profile picture


Generatiewe KI-tegnologie wat gebruik kan word om vars inhoud soos teks, beelde, oudio en selfs video's te skep, baie soos 'n mens sou. Hierdie tegnologie het ongelooflik gewild en wydverspreid geword. ’n Verslag van Europol voorspel dat 90% van aanlyninhoud binne ’n paar jaar KI-gegenereer kan word. Generatiewe KI is egter 'n tweesnydende swaard. Aan die een kant hou Generatiewe KI geweldige potensiaal oor verskeie sektore in. Dit kan kliëntediens verbeter deur intelligente chatbots, help in kreatiewe bedrywe deur kuns en musiek te genereer, en selfs help met mediese navorsing deur komplekse biologiese prosesse te simuleer. Dieselfde tegnologie wat hierdie innovasies dryf, kan egter ook deur kwaadwillige akteurs gewapen word.


Onlangs was daar 'n toename in die misbruik van hierdie tegnologie vir bedrieglike aktiwiteite. Namate generatiewe modelle toenemend gesofistikeerd raak, word die metodes wat deur slegte akteurs gebruik word om hulle vir kwaadwillige doeleindes te ontgin ook. Om die verskillende maniere te verstaan waarop generatiewe KI misbruik word, is noodsaaklik vir die ontwikkeling van robuuste verdediging en om die integriteit en betroubaarheid van digitale platforms te verseker. Terwyl die nuwe en ingewikkelde maniere waarop die slegte akteurs hierdie tegnologie gebruik net meer en meer gesofistikeerd word, sal ons die verskillende tipes bedrog ondersoek wat deur generatiewe KI gefasiliteer word en wat reeds wyd deur slagoffers gerapporteer word.

Verkiesing verkeerde inligting met behulp van Deepfakes

Een van die mees berugte gebruike van generatiewe KI is die skepping van diepvals video's—hiper-realistiese dog heeltemal vals uitbeeldings van mense. Wanneer hoëprofielpolitici geteiken word, veral in die konteks van groot gebeurtenisse soos oorloë of verkiesings, kan die gevolge ernstig wees. Deepfakes kan wydverspreide paniek veroorsaak en kritieke gebeurtenisse ontwrig. Byvoorbeeld, 'n diep valse video van die Oekraïense president Volodymyr Zelensky wat oorgee het tydens die oorlog gesirkuleer, en in Indië, net voor verkiesings, het 'n gedokterde video valslik gewys dat die minister van binnelandse sake van die Unie Amit Shah beweer dat alle kaste-gebaseerde voorbehoude afgeskaf sou word, wat spanning tussen gemeenskappe. Meer onlangs het 'n vals beeld van Donald Trump wat gearresteer is op X virale gegaan (sien Figuur 1).


Figuur 1: Vals beeld van Donald Trump wat gearresteer word, het in 2023 virale gegaan op X (voorheen Twitter)


Finansiële swendelary

Gevorderde KI-aangedrewe kletsbotte kan menslike gesprekke met ongelooflike akkuraatheid naboots. Bedrieërs loods uitvissing-aanvalle deur KI-kletsbotte te gebruik om bankverteenwoordigers na te doen. Kliënte ontvang oproepe en boodskappe van hierdie bots, wat oortuigend vra vir sensitiewe inligting onder die voorwendsel om rekeningkwessies op te los. Baie niksvermoedende individue word die slagoffer van hierdie swendelary, wat aansienlike finansiële verliese tot gevolg het. Bedrieërs kan KI gebruik om realistiese stemopnames van bestuurders te genereer om bedrieglike transaksies te magtig, 'n skema wat bekend staan as "CEO-bedrog." In 'n noemenswaardige geval is 'n werknemer van 'n Hongkongse multinasionale firma mislei om $25 miljoen aan bedrieërs uit te betaal wat diepvals tegnologie gebruik het om as die maatskappy se finansiële hoof in 'n videokonferensie-oproep voor te doen. Hierdie swendelary buit die vertroue en gesag van hooggeplaaste amptenare uit en veroorsaak aansienlike finansiële skade aan besighede.

Vals nuus

Generatiewe KI kan ook oortuigende fopnuusartikels produseer, wat vinnig deur sosiale media versprei kan word. Tydens die COVID-19-pandemie het talle fopnuusartikels en sosiale media-plasings verkeerde inligting oor die virus en entstowwe versprei. Daar was baie skadelike fopnuusberigte op Whatsapp en ander sosiale media wat beweer het dat sekere Ayurvediese middels COVID-19 kan genees, wat tot wydverspreide paniek en verkeerde selfmedikasiepraktyke gelei het. Met Generative AI is dit redelik min moeite vir swendelaars om grootskaalse vals nuus te genereer en paniek onder mense te skep. Byvoorbeeld, jy kan maklik gemanipuleerde beelde met regte mense, regte plekke genereer en dit sensasionele nuus maak. Hier is een voorbeeld wat 'n vals beeld toon van die Taj Mahal wat deur 'n aardbewing getref is wat met OpenAI se DALL-E-model gegenereer is (Figuur 2).

Figuur 2: Vals beeld van Taj Mahal wat deur 'n aardbewing getref word


Hier is nog een wat die Taj-hotel in Mumbai aan die brand wys (herinner aan die 2008-terreuraanval) in Figuur 3.

figuur 3: Vals beeld van Taj Mahal-hotel aan die brand

Nie-konsensuele pornografie en teistering

Kubermisdadigers, sowel as individue met kwaadwillige bedoelings, kan Generatiewe KI-tegnologie gebruik om teisteringsveldtogte van stapel te stuur wat lei tot verwoeste reputasies, of meer tradisionele vorme van aanlyn teistering. Slagoffers kan wissel van private individue of openbare figure. Taktieke kan die skep van vals prente, vals video's in kompromitterende situasies of in gemanipuleerde omgewings insluit. Byvoorbeeld, in Januarie 2024 het pop-megastar T aylor Swift die jongste hoëprofiel-teiken geword van seksueel eksplisiete, nie-konsensuele diepvalse beelde wat gemaak is met behulp van kunsmatige intelligensie wat wyd op sosiale media-platforms versprei is.

Geteikende swendelary met vals stem

Generatiewe KI kan stemme en gelykenisse kopieer, wat dit vir individue moontlik maak om te voorkom asof hulle amper enigiets sê of doen. Hierdie tegnologie is soortgelyk aan "deepfake" video's, maar is van toepassing op stemme. KI-gegenereerde stemme word gebruik om swendelary te verbeter, wat dit meer oortuigend maak. Iemand kan byvoorbeeld jou stem van die internet af krap en dit gebruik om jou ouma te bel en haar vir geld te vra. Bedreigingsakteurs kan maklik 'n paar sekondes van iemand se stem van sosiale media of ander oudiobronne verkry en generatiewe KI gebruik om hele draaiboeke te vervaardig van wat hulle ook al wil hê daardie persoon moet sê. Dit sal die geteikende persoon laat glo dat die oproep van hul vriende of familielede is en sal dus geflous word om geld aan die bedrieër te stuur wat dink 'n naaste is in nood.

Romanse swendelary met valse identiteite

Romanse swendelary neem toe, en in Indië was dit 'n verslag dat 'n verbysterende 66 persent van individue in die land die prooi word van bedrieglike aanlyn-afspraakskemas. 'n Heeltemal valse persona kan met behulp van Generative AI vervaardig word. Bedrieërs kan vervaardigde dokumentasie soos paspoorte of aadhar-kaarte skep. Hulle kan selfs vals beelde van hulself skep, soos die prentjie hieronder van 'n vals persoon voor 'n mooi huis en 'n spoggerige motor. Hulle kan selfs met 'n vals stem oproepe maak en kan jou oortuig dat die KI 'n regte persoon is en jou uiteindelik emosioneel teiken om gevoelens vir hulle te ontwikkel, en later geld of geskenke van jou af te pers. Hier is 'n voorbeeld (in Figuur 4) van 'n KI-gegenereerde beeld van 'n vals persoon, gegenereer met behulp van Midjourney-bot.


Figuur 4: Valse persona geskep deur bedrieërs wat midjourney gebruik

Aanlyn inkopies swendelary

Misleidende advertensies kan valse eise behels, of selfs die skepping van heeltemal vals produkte of dienste. Dit kan daartoe lei dat verbruikers oningeligte of bedrieglike aankope doen. GenAI kan gebruik word om vals sintetiese produkresensies, graderings en aanbevelings op e-handelsplatforms te genereer. Hierdie vals resensies kan die reputasie van produkte van lae gehalte kunsmatig bevorder of die reputasie van opregte produkte benadeel. Swendelaars kan GenAI gebruik om vervalste produklysinskrywings of webwerwe te skep wat wettig lyk, wat dit moeilik maak vir verbruikers om tussen egte en bedrieglike verkopers te onderskei. Chatbots of KI-gebaseerde kliëntediensagente kan gebruik word om misleidende inligting aan kopers te verskaf, wat moontlik lei tot swak ingeligte aankoopbesluite. So 'n hele ekosisteem van vals besigheid kan maklik opgestel word.

Bly waaksaam en beskerm jouself teen KI-gedrewe bedrog

Met bogenoemde voorbeelde is dit duidelik dat skadelike inhoud op skaal geskep kan word deur Generatiewe KI met kommerwekkende gemak te gebruik. Generatiewe AI dien as 'n produktiwiteitsinstrument, wat die volume en gesofistikeerdheid van inhoud verhoog. Amateurs betree makliker die spel, en daar is 'n beduidende stap om sosiale media vir finansiële gewin te ontgin. Gesofistikeerde skeppers van verkeerde inligting is baie in staat om KI te skaal en te gebruik om hulself in ander tale te vertaal om hul inhoud na lande en mense te bring wat hulle voorheen nie kon bereik nie. Daar is 'n paar stappe wat almal kan neem om waaksaam te wees en hulself te beskerm teen KI-aangedrewe swendelary. Bewustheid en waaksaamheid is die sleutel tot beveiliging teen KI-gedrewe bedrog.


Verifieer altyd die bron van die inhoud. Terwyl al die groot tegnologiemaatskappye watermerk-gegenereerde inhoud is as 'n sleuteloplossing om ontwikkelaars in staat te stel om watermerke te enkripteer, wat beter opsporing en egtheid van KI-gegenereerde bied, is die algemene poel nie-tegnologie-mense nie bewus van sulke tegnologieë nie en weet nie hoe om watermerke te identifiseer of KI-gegenereerde inhoudsopsporingsinstrumente te gebruik. 'n Basiese ding wat egter deur almal gedoen kan word, is om altyd die bron van enige verdagte beeld, video of stemboodskap te verifieer. As jy 'n video ontvang wat uit karakter lyk vir die persoon wat uitgebeeld word, kruiskontroleer met ander bronne en kontak die persoon direk. Byvoorbeeld, 'n diep valse video van 'n politikus wat opruiende stellings maak, moet deur amptelike kanale geverifieer word. 'n Video van 'n familielid wat ontvoer word of in nood is, moet geverifieer word deur die persoon te bel of 'n wedersydse verbinding. Net so kan 'n stemoproep van iemand wat beweer dat hy 'n senior bestuurder of 'n bankverteenwoordiger is wat vir sensitiewe inligting vra, geverifieer word deur terug te skakel op 'n bekende en vertroude nommer soos 'n bank se amptelike kliëntediensnommer om te bevestig.


Beperk die deel van persoonlike inligting. Bedrieërs gebruik dikwels besonderhede van sosiale media om oortuigende deepfakes en stemboodskappe te skep. Vermy die plasing van sensitiewe inligting soos jou adres, telefoonnommer en finansiële besonderhede. Pas die privaatheidinstellings op jou sosiale media-rekeninge aan om die sigbaarheid van jou plasings en persoonlike inligting te beperk. Laat net vertroude vriende en familie toe om jou profiel en plasings te sien. Op Facebook of Instagram kan jy jou privaatheidinstellings hersien en aanpas om te verseker dat net jou vriende jou plasings kan sien. Vermy die deel van besonderhede soos jou vakansieplanne, wat deur bedrieërs gebruik kan word om jou te teiken terwyl jy weg is. Hou jou profiel en vriendelys privaat sodat bedrieërs nie jou familie en vriende teiken met jou vals video's en stemoproepe nie. Die beperking van die hoeveelheid persoonlike inligting wat aanlyn beskikbaar is, maak dit moeiliker vir bedrieërs om data oor jou in te samel. Dit verminder die waarskynlikheid dat hulle oortuigende deepfakes kan skep of jou naboots.


Terwyl ons op die randjie van 'n KI-gedrewe era staan, word die stryd tussen innovasie en uitbuiting verskerp. Die opkoms van KI-gedrewe bedrog is nie net 'n uitdaging nie - dit is 'n oproep tot aksie. Met generatiewe KI wat in staat is om oortuigende deepfakes, realistiese stemklone en gesofistikeerde uitvissingskemas te skep, was die potensiaal vir misleiding nog nooit groter nie. Tog, te midde van hierdie bedreigings lê 'n geleentheid: die kans om ons benadering tot digitale sekuriteit en vertroue te herdefinieer. Dit is nie genoeg om bewus te wees nie; ons moet proaktief wees en dieselfde voorpunttegnologie gebruik om gevorderde opsporingstelsels en openbare onderwysveldtogte te ontwikkel. Die toekoms van KI is nie vooraf bepaal nie. Deur vandag beslissende aksie te neem, kan ons 'n digitale landskap vorm waar die belofte van generatiewe KI verwesenlik word sonder om die prooi van die gevare daarvan te word. Laat dit ons oomblik wees om op te staan, te innoveer en te beskerm, om 'n veiliger digitale wêreld vir almal te verseker.