Nová studie společnosti Social Links, která je lídrem v open-source řešeních pro zpravodajství, odhaluje propast mezi obchodními a technickými profesionály, pokud jde o rozpoznávání rizik spojených s kybernetickými útoky poháněnými umělou inteligencí.Navzdory rychlému nárůstu sofistikovanosti hrozeb se podnikatelé obávají výrazně méně než jejich tech kolegové. Průzkum shromáždil poznatky od 237 odborníků (od generálního ředitele a technické úrovně C až po specialisty na kybernetickou bezpečnost a produktové manažery) v různých odvětvích, včetně finančních služeb, technologií, výroby, maloobchodu, zdravotnictví, logistiky, vlády atd. Výsledky ukázaly, že pouze 27,8 % podnikatelů (profesionálů v netechnických, obchodně orientovaných rolích) identifikovalo používání umělé inteligence k vytváření falešných zpráv jako jednu z nejrelevantnějších kybernetických hrozeb.Naopak 53,3 % technických profesionálů označilo tuto skutečnost za nejzajímavější – téměř dvojnásobek úrovně poplachu. Tato mezera zdůrazňuje kritickou zranitelnost v organizační bezpečnosti: obchodní profesionálové, kteří často vytvářejí primární cíle pro sofistikované sociální inženýrství řízené AI a schémata hlubokého padělání, vykazují výrazně nižší úroveň obav nebo povědomí o těchto hrozbách. Zároveň nejzranitelnějšími odděleními pro kybernetické hrozby, které respondenti identifikovali, byly Finance a účetnictví (24,1 %), IT a vývoj (21,5 %), HR a nábor (15,2 %) a Sales and Account Management (13,9 %). „Tohle už není otázka ‚pokud‘ – hrozby poháněné umělou inteligencí jsou již tady a rychle se vyvíjejí,“ říká Ivan Shkvarun, generální ředitel společnosti Social Links. „Vidíme jasný rozdíl mezi těmito budovacími obrannými systémy a těmi, které budou s největší pravděpodobností cíleny. „Tohle už není otázka ‚pokud‘ – hrozby poháněné umělou inteligencí jsou již tady a rychle se vyvíjejí,“ říká Ivan Shkvarun, generální ředitel společnosti Social Links. „Vidíme jasný rozdíl mezi těmito budovacími obrannými systémy a těmi, které budou s největší pravděpodobností cíleny. Klíčové poznatky z výzkumu: Zatímco phishing a e-mailové podvody zůstávají nejvíce citovanými hrozbami (69,6%), následovány malwarem / ransomwarem (49,4%), útoky založené na umělé inteligenci získávají místo. „Tradiční hrozby, jako je phishing a malware, stále dominují na grafech, ale to, co nyní vidíme, je, že AI nenahrazuje tato rizika, ale přetíží je, přeměňuje generické podvody na přizpůsobené operace – rychlé, levné a přesvědčivé. „Tradiční hrozby, jako je phishing a malware, stále dominují na grafech, ale to, co nyní vidíme, je, že AI nenahrazuje tato rizika, ale přetíží je, přeměňuje generické podvody na přizpůsobené operace – rychlé, levné a přesvědčivé. Riziko otisku zaměstnanců: 60,8 % respondentů uvádí, že zaměstnanci používají firemní účty pro osobní účely – jako je publikování na fórech, zapojení se do sociálních médií nebo aktualizace veřejných profilů. 59,5 % také spojuje veřejně dostupné údaje zaměstnanců (např. bios LinkedIn, aktivity na fórech a blogech) s reálnými kybernetickými incidenty, což je identifikuje jako opakující se vstupní bod pro útoky. Přes 82 % společností umožňuje zaměstnancům používat nástroje umělé inteligence při práci, avšak pouze 36,7 % má formální politiku, která kontroluje, jak jsou tyto nástroje používány.Tato mezera pohání „stínovou inteligenci“ – neautorizované přijímání chatbotů, asistentů kódu nebo jiných služeb umělé inteligence bez dohledu IT, což může uvolňovat citlivá data a vytvářet skrytá rizika pro bezpečnost a dodržování předpisů. „Nemůžete skutečně zabránit lidem v používání pracovních účtů nebo dat, když jsou aktivní online. Totéž platí pro nástroje umělé inteligence: lidé je budou používat k úspoře času nebo k získání pomoci s úkoly, ať už existuje politika nebo ne. Ale všechny tyto aktivity zanechávají digitální stopy. A ty stopy mohou podvodníkům usnadnit nalezení a cílení zaměstnanců. „Nemůžete skutečně zabránit lidem v používání pracovních účtů nebo dat, když jsou aktivní online. Totéž platí pro nástroje umělé inteligence: lidé je budou používat k úspoře času nebo k získání pomoci s úkoly, ať už existuje politika nebo ne. Ale všechny tyto aktivity zanechávají digitální stopy. A ty stopy mohou podvodníkům usnadnit nalezení a cílení zaměstnanců. Výzkum zdůrazňuje, že efektivní kybernetická bezpečnost v éře umělé inteligence vyžaduje holistický přístup, který přesahuje technické kontroly a zahrnuje komplexní bezpečnostní programy zaměřené na člověka. Školení zaměstnanců o bezpečném používání umělé inteligence bylo převážně vnímáno respondenty průzkumu jako nejúčinnější zmírňující opatření pro „stínovou umělou inteligenci“ (72,2%), následované rozvojem interních politik (46,8%). Sociální odkazy se zavázaly řešit tyto vyvíjející se výzvy a nedávno spustila , jehož cílem je dále zkoumat a zmírnit rizika představovaná pokročilými hrozbami řízenými umělou inteligencí. Iniciativa Darkside AI Iniciativa Darkside AI O sociálních vazbách: Společnost Social Links je globálním poskytovatelem open-source inteligentních řešení (OSINT), uznávaných jako lídr v oboru společností Frost & Sullivan. Společnost se sídlem ve Spojených státech má také kancelář v Nizozemsku. Social Links shromažďuje data z více než 500 otevřených zdrojů pokrývajících sociální média, posly, blockchainy a Dark Web, což umožňuje uživatelům vizualizovat a analyzovat komplexní informační obraz a zjednodušit šetření. Její řešení podporují základní procesy v různých odvětvích, včetně prosazování práva, národní bezpečnosti, kybernetické bezpečnosti, due diligence, bankovnictví a další. Kontakty : Na emailu: sociallinks@perform.it.com sociallinks@perform.it.com Webové stránky: Sociální linky Sociální linky