paint-brush
AI megtévesztés: mennyire generatív mesterséges intelligenciát fegyvereznek el csalásértáltal@truptibavalatti
694 olvasmányok
694 olvasmányok

AI megtévesztés: mennyire generatív mesterséges intelligenciát fegyvereznek el csalásért

által Trupti Bavalatti7m2024/10/22
Read on Terminal Reader

Túl hosszú; Olvasni

A generatív mesterséges intelligencia, bár hihetetlen lehetőségeket kínál, egyre gyakrabban használják ki rosszindulatú célokra, mint például mélyhamisított videók, pénzügyi csalások és félretájékoztatás. A csalók mesterséges intelligencia segítségével személyeskednek meg, álhíreket hoznak létre, hangokat manipulálnak, és még nem konszenzusos tartalmat is generálnak. Ez jelentős fenyegetést jelent, különösen az olyan kritikus területeken, mint a választások, az online biztonság és a közösségi média. A cikk számos példát mutat be a generatív mesterséges intelligencia csalásra való felhasználására, és tippeket ad arra vonatkozóan, hogyan védheti meg magát az AI-vezérelt csalásoktól. A tudatosság és a proaktív biztonsági intézkedések elengedhetetlenek az e fejlődő fenyegetésekkel szembeni védekezéshez.
featured image - AI megtévesztés: mennyire generatív mesterséges intelligenciát fegyvereznek el csalásért
Trupti Bavalatti HackerNoon profile picture


Generatív mesterséges intelligencia technológia, amellyel friss tartalmak, például szövegek, képek, hanganyagok és akár videók is készíthetők, akárcsak az ember. Ez a technológia hihetetlenül népszerűvé és elterjedtté vált. Az Europol jelentése szerint az online tartalmak 90%-a mesterséges intelligencia által generált lehet néhány éven belül. A Generatív AI azonban kétélű fegyver. Egyrészt a Generatív AI hatalmas lehetőségeket rejt magában a különböző szektorokban. Az intelligens chatbotokon keresztül javíthatja az ügyfélszolgálatot, művészet és zene generálásával segítheti a kreatív iparágakat, sőt az orvosi kutatásokat is segítheti összetett biológiai folyamatok szimulálásával. Azonban ugyanazt a technológiát, amely ezeket az innovációkat vezérli, a rosszindulatú szereplők is felfegyverezhetik.


A közelmúltban megnövekedett az ezzel a technológiával való visszaélés csalárd tevékenységekre. Ahogy a generatív modellek egyre kifinomultabbakká válnak, úgy fejlődnek a rossz szereplők rosszindulatú célokra való kihasználására alkalmazott módszerek is. A generatív MI-vel való visszaélés különböző módjainak megértése alapvető fontosságú a robusztus védelem kifejlesztéséhez, valamint a digitális platformok integritásának és megbízhatóságának biztosításához. Miközben a rossz szereplők újszerű és bonyolult módjai, ahogyan ezt a technológiát használják, egyre kifinomultabbak, megvizsgáljuk a generatív mesterséges intelligencia által elősegített csalások különféle típusait, amelyekről már most is széles körben beszámoltak az áldozatok.

Választási téves információ Deepfakes használatával

A generatív mesterséges intelligencia egyik leghírhedtebb felhasználási módja a mélyhamisított videók készítése – hiperrealisztikus, mégis teljesen hamis emberábrázolások. Ha nagy horderejű politikusokat céloznak meg, különösen olyan jelentős események kapcsán, mint a háborúk vagy a választások, a következmények súlyosak lehetnek. A mélyhamisítások széles körű pánikot okozhatnak, és megzavarhatják a kritikus eseményeket. Például Volodimir Zelenszkij ukrán elnök meghódolásáról szóló mélyhamisított videó terjedt el a háború alatt, Indiában pedig közvetlenül a választások előtt egy orvosolt videó hamisan bemutatta Amit Shah uniós belügyminisztert, aki azt állította, hogy minden kasztalapú fenntartást eltörölnek, ami feszültséget szított közösségek. Nemrég egy Donald Trump letartóztatásáról készült hamis kép terjedt el az X-en (lásd az 1. ábrát).


1. ábra: Donald Trump letartóztatásáról készült hamis kép 2023-ban terjedt el az X-en (korábban Twitteren)


Pénzügyi csalások

A fejlett mesterséges intelligencia-alapú chatbotok hihetetlen pontossággal képesek utánozni az emberi beszélgetéseket. A csalók adathalász támadásokat indítanak mesterséges intelligencia chatbotokkal, hogy kiadják magukat a banki képviselőknek. Az ügyfelek hívásokat és üzeneteket kapnak ezektől a robotoktól, amelyek meggyőzően kérnek bizalmas információkat a fiókproblémák megoldása ürügyén. Sok gyanútlan személy esik áldozatul ezeknek a csalásoknak, ami jelentős anyagi veszteségeket okoz. A csalók a mesterséges intelligencia segítségével valósághű hangfelvételeket készíthetnek a vezetőkről, hogy engedélyezzék a csalárd tranzakciókat. Ezt a sémát „vezérigazgatói csalásnak” nevezik. Egy figyelemreméltó esetben egy hongkongi multinacionális cég alkalmazottját becsapták azzal, hogy 25 millió dollárt fizetett ki csalóknak mélyhamisítási technológiát használó csalóknak, hogy a vállalat pénzügyi igazgatójának adják ki magát egy videokonferencia-hívás során. Ezek a csalások kihasználják a magas rangú tisztviselők bizalmát és tekintélyét, jelentős anyagi károkat okozva ezzel a vállalkozásoknak.

Álhírek

A generatív mesterséges intelligencia meggyőző álhíreket is képes készíteni, amelyek gyorsan terjeszthetők a közösségi médián keresztül. A COVID-19 világjárvány idején számos álhírcikk és közösségi média poszt terjeszt félretájékoztatást a vírusról és a vakcinákról. A Whatsappon és más közösségi médiában sok káros álhír jelent meg, amelyek azt állították, hogy bizonyos ájurvédikus gyógymódok meggyógyíthatják a COVID-19-et, ami széles körben elterjedt pánikhoz és téves öngyógyítási gyakorlatokhoz vezetett. A Generatív mesterséges intelligencia segítségével a csalók meglehetősen csekély erőfeszítést tesznek nagyszabású álhírek generálására, és pánikot keltenek az emberek között. Például könnyen generálhat manipulált képeket valós emberekkel, valós helyekkel, és szenzációs hírré teheti azokat. Íme egy példa, amely egy hamis képet mutat a Tádzs Mahalról, amelyet földrengés sújtott, és az OpenAI DALL-E modelljét használták (2. ábra).

2. ábra: A földrengés által sújtott Tádzs Mahal hamis képe


Itt van egy másik, amely a mumbai Taj szállodát mutatja lángokban (a 2008-as terrortámadásra emlékeztet) a 3. ábrán.

3. ábra: Tűzben lévő Taj Mahal hotel hamis képe

Konszenzus nélküli pornográfia és zaklatás

A kiberbűnözők, valamint a rosszindulatú egyének a Generative AI technológiát felhasználva olyan zaklatási kampányokat indíthatnak, amelyek hírnevet rombolnak, vagy az online zaklatás hagyományosabb formáit. Az áldozatok lehetnek magánszemélyek vagy közéleti személyiségek. A taktika magában foglalhatja hamis képek, hamis videók létrehozását kompromittáló helyzetekben vagy manipulált környezetben. Például 2024 januárjában a pop-megasztár, T Taylor Swift lett a mesterséges intelligencia felhasználásával készült, szexuálisan explicit, nem konszenzusos mélyhamis képek legújabb nagy horderejű célpontja, amelyet széles körben terjesztettek a közösségi média platformjain.

Célzott csalások hamis hangon

A generatív mesterséges intelligencia képes hangokat és hasonlatokat másolni, így az egyének úgy tűnhetnek, mintha szinte bármit mondanának vagy csinálnának. Ez a technológia hasonló a „deephamis” videókhoz, de a hangokra vonatkozik. A mesterséges intelligencia által generált hangokat a csalások fokozására használják, így azok meggyőzőbbek. Például valaki lekaparhatja a hangját az internetről, és felhívhatja a nagymamáját, és pénzt kérhet tőle. A fenyegetés szereplői könnyen megszerezhetik valakinek néhány másodpercnyi hangját a közösségi médiából vagy más hangforrásokból, és generatív mesterséges intelligencia segítségével teljes forgatókönyvet készíthetnek arról, amit az illető mondani akar. Ezzel elhiteti a megcélzott személyrel, hogy a hívást a barátai vagy rokonai küldik, és így becsapják azzal, hogy pénzt küldjön a csalónak, aki azt gondolja, hogy egy közeli személynek szüksége van rá.

Romantikus csalások hamis személyazonosságokkal

A romantikus csalások rohamosan terjednek, és Indiában ez volt a jelentés , amely szerint az országban élő egyének megdöbbentő 66 százaléka csalóka online társkereső programok áldozata lett. A Generative AI segítségével teljesen hamis személyt lehet kitalálni. A csalók koholt dokumentumokat, például útleveleket vagy aadhar-kártyákat készíthetnek. Még hamis képeket is létrehozhatnak magukról, például az alábbi képen egy hamis személyről egy szép ház és egy díszes autó előtt. Még hamis hangon is hívhatnak, és meg tudják győzni arról, hogy a mesterséges intelligencia valódi személy, és végül érzelmileg megcéloznak, hogy érzelmeket ébresszenek irántuk, és később pénzt vagy ajándékokat kicsikarjanak ki Öntől. Íme egy példa (4. ábra) egy mesterséges intelligencia által generált képre egy hamis személyről, amelyet a Midjourney bot segítségével hoztak létre.


4. ábra: A csalók által az utazás közepén létrehozott hamis személy

Online vásárlási csalások

A megtévesztő reklám magában foglalhat hamis állításokat, vagy akár teljesen hamis termékek vagy szolgáltatások létrehozását is. Ez arra késztetheti a fogyasztókat, hogy tájékozatlan vagy csalárd vásárlásokat hajtsanak végre. A GenAI felhasználható hamis szintetikus termékértékelések, értékelések és ajánlások generálására az e-kereskedelmi platformokon. Ezek a hamis vélemények mesterségesen növelhetik az alacsony minőségű termékek hírnevét, vagy árthatnak az eredeti termékek hírnevének. A csalók a GenAI segítségével hamisított terméklistákat vagy legitimnek tűnő webhelyeket hozhatnak létre, ami megnehezíti a fogyasztók számára a valódi és a csaló eladók megkülönböztetését. A chatbotok vagy mesterséges intelligencia-alapú ügyfélszolgálati ügynökök félrevezető információkkal szolgálhatnak a vásárlóknak, ami esetleg rosszul tájékozott vásárlási döntésekhez vezethet. Így könnyen létrehozható egy hamis üzleti ökoszisztéma.

Maradjon éber és védje magát a mesterséges intelligencia által vezérelt csalással szemben

A fenti példák alapján egyértelmű, hogy a Generatív mesterséges intelligencia használatával riasztó könnyedséggel hozhatók létre káros tartalmak. A generatív AI termelékenységi eszközként működik, növelve a tartalom mennyiségét és kifinomultságát. Az amatőrök könnyebben lépnek be a játékba, és jelentős elmozdulás történt a közösségi média anyagi haszonszerzésre való kihasználása felé. A kifinomult téves információ-készítők nagyon képesek skálázni és felhasználni az AI-t, hogy lefordítsák magukat más nyelvekre, hogy tartalmukat olyan országokhoz és emberekhez juttathassák el, akiket korábban nem tudtak elérni. Vannak olyan lépések, amelyeket mindenki megtehet, hogy éber legyen, és megvédje magát a mesterséges intelligencia által hajtott csalásoktól. A tudatosság és az éberség kulcsfontosságú a mesterséges intelligencia által vezérelt csalások elleni védekezésben.


Mindig ellenőrizze a tartalom forrását. Míg az összes nagy technológiai vállalat vízjelekkel látja el a mesterséges intelligencia által generált tartalmakat, mint kulcsfontosságú megoldást, amely lehetővé teszi a fejlesztők számára a vízjelek titkosítását, ezáltal jobb felismerést és hitelességet biztosít az AI által generált tartalmak számára, a nem technológiai szakemberek általában nincsenek tisztában az ilyen technológiákkal, és nem is ismerik. hogyan lehet azonosítani a vízjeleket vagy használni az AI által generált tartalomészlelő eszközöket. Alapvető dolog azonban, amelyet mindenki megtehet, hogy mindig ellenőrizze a gyanús kép, videó vagy hangüzenet forrását. Ha olyan videót kapsz, amely az ábrázolt személyhez illőnek tűnik, nézd meg más forrásokat, és fordulj közvetlenül a személlyel. Például egy hamisított videót, amelyen egy politikus lázító kijelentéseket tesz, hivatalos csatornákon keresztül ellenőrizni kell. A hozzátartozót elrabolt vagy bajba jutott videót a személy felhívásával vagy egy közös kapcsolattal ellenőrizni kell. Hasonlóképpen, ha valaki azt állítja magáról, hogy vezető tisztségviselő, vagy egy bank képviselője érzékeny információkat kér, akkor egy ismert és megbízható számon, például a bank hivatalos ügyfélszolgálati számán hívja vissza a megerősítést.


Korlátozza a személyes adatok megosztását. A csalók gyakran használják a közösségi médiából származó részleteket meggyőző mélyhamisítások és hangüzenetek létrehozásához. Kerülje az olyan érzékeny adatok közzétételét, mint a címe, telefonszáma és pénzügyi adatai. Módosítsa a közösségi média fiókjainak adatvédelmi beállításait, hogy korlátozza bejegyzései és személyes adatai láthatóságát. Csak megbízható barátok és családtagok tekinthetik meg profilodat és bejegyzéseidet. A Facebookon vagy az Instagramon áttekintheted és módosíthatod adatvédelmi beállításaidat, hogy csak az ismerőseid lássák bejegyzéseidet. Kerülje az olyan részletek megosztását, mint például a nyaralási tervei, amelyeket a csalók felhasználhatnak arra, hogy megcélozzák Önt, amíg távol van. Tartsa titokban profilját és barátlistáját, hogy a csalók ne célozzák meg családját és barátait hamis videóiddal és hanghívásaiddal. Az online elérhető személyes adatok mennyiségének korlátozása megnehezíti a csalók számára, hogy adatokat gyűjtsenek Önről. Ez csökkenti annak valószínűségét, hogy meggyőző mélyhamisításokat készítsenek, vagy megszemélyesítsék Önt.


Ahogy egy mesterséges intelligencia által vezérelt korszak küszöbén állunk, az innováció és a kiaknázás közötti csata felerősödik. A mesterséges intelligencia által vezérelt csalások térhódítása nem csak kihívás, hanem cselekvésre való felhívás. A meggyőző mélyhamisítások, valósághű hangklónok és kifinomult adathalász sémák létrehozására képes generatív mesterségesintelligencia révén a megtévesztés lehetősége soha nem volt nagyobb. E fenyegetések közepette azonban egy lehetőség rejlik: a lehetőség, hogy újradefiniáljuk a digitális biztonsággal és bizalommal kapcsolatos megközelítésünket. Nem elég tudatosnak lenni; proaktívnak kell lennünk, ugyanazt az élvonalbeli technológiát felhasználva fejlett észlelési rendszerek és közoktatási kampányok kifejlesztéséhez. Az AI jövője nincs előre meghatározva. Ha ma határozott lépéseket teszünk, olyan digitális tájat alakíthatunk ki, ahol a generatív mesterséges intelligencia ígérete megvalósul anélkül, hogy veszélyei áldozatául esnénk. Legyen ez a mi pillanatunk a felemelkedésre, az innovációra és a védelemre, ezzel mindenki számára biztonságosabb digitális világot biztosítva.