Երբ գիշերային գիշերային դասընթացը, հետազոտողները Մեկ հաճախորդի ավտոմատ բջջային վրա հիմնված AI- ի գործիչը պատկանում է CTO- ի հավելվածքները: Մեկ բջջային բջջային բջջային բջջային բջջային բջջային բջջային բջջային բջջային բջջային բջջային բջջային բջջային բջջային բջջային բջջային բջջային Տեղադրված է GitHub- ի ներքին հարցի էջում, որը աշխատում է — open-source սարքավորումներ, որոնք վերջինում 17 միլիոն $ մի փաթեթով, եւ VC- ի աշխարհում տպագրություն է ստեղծել. Դիտել Հաջորդ օր Browser-ը օգտագործվում է Բարձրացվել Այս արագ հավելվածությունը պլանավորել է շատ ավելի խոշոր խնդիրը: Երբ վտանգավոր բջջային բջջային բջջային բջջային բջջային բջջային բջջային բջջային բջջային բջջային բջջային բջջային բջջային բջջային բջջային բջջային բջջային բջջային բջջային բջջային բջջային բջջային բջջային բջջային բջջային բջջային բջջային բջջային բջջային բջջային բջջջային բջջային բջջային բջջային բջջջային բջջային բջջջային բջջջային բջջային բջջջային բջջջային բջ Ըստ , 82% մեծ ընկերությունների այսօր օգտագործում է մի քանի AI- ի գործիչներ իրենց արտադրության աշխատանքային պլաններում, 1,3 միլիոն Enterprise- ի գործիչների օգտագործողների համար 2028-ին: շուկայի ուսումնասիրողներ How Hackers Exploit Enterprise AI Agents Ինչպե՞ս hackers exploit enterprise AI agents Zenity Labs- ը, ընկերությունների համար Agentic AI անվտանգության եւ կառավարման առաջատար մատակարարը, MS Copilot Studio- ի ավելի քան 3,000 անձնակազմը, որոնք տեղադրվում են մեծ բիզնեսի կողմից հաճախորդների ծառայության հարցերի կառավարման, աջակցության տոմսերի մշակման, ներքին CRM համակարգերի մուտքագրման եւ տարբեր բիզնեսի աշխատանքային փաթեթների կատարման համար: Գիտվել է Ընկերության հետազոտությունը բացահայտել է մի ամբողջական attack chain: Այն սկսվել է , որտեղ OSINT տեխնոլոգիաները օգտագործվել են բացառապես բացառված Copilot Studio- ի գործիչների քարտեզի եւ identifying- ի համար. Հիմնական հոդվածը, որը նշվում է, թե ինչպե՞ս պետք է փոխել սերտիֆիկը եւ սերտիֆիկը: , քանի որ գործակալները փակվել են առանց որեւէ մարդային ինտերնետության - հիմնականում դարձնում են ավտոմատ վերահսկողը գործարանային համակարգերի. , որտեղ attackers կարող են բեռնել ամբողջ CRM տվյալների բազաններ եւ բացահայտել sensitive բջջային գործիքներ, բոլորը օգտագործելով սխալները agents workflows, որոնք չկան ճշգրիտ վահանակներ. reconnaissance weaponization compromise exfiltration Copilot Studio- ի գործակալների անվտանգությունը սխալ էր, քանի որ այն շատ հավատում էր խոշոր գծերի վրա, ինչպիսիք են սխալ, մակարդակային մակարդակային պաշտպանությունները (հարկե, AI-ի ուղեցույցները այն մասին, թե ինչ պետք է եւ չի պետք անել, առանց տեխնիկական վերահսկողության). Ապրանքներ են հավատում, որ իրենց ուղեցույցները պետք է «պասեցնել միայն ճշգրտված հաճախորդներին», բայց այդ պայմանները հեշտ են վերահսկել: Պահպանված սխալները, որոնք նախագծված են սեղմել սխալային մատակարարների մատակարարների մատակարարների մատակարարների մատակարարների մատակարարների մատակարարների մատակարարների մատակարարների մատակարարների մատակարարների մատակարարման տվյալ Այս եւ այլ բիզնեսի AI- ի գործիչների Zero-click exploits- ում հայտնաբերվել են Black Hat USA 2025- ում, հիմնական արդյունքը այն է, որ Որքան ավելի autonomic է AI- ը, այնքան բարձր է անվտանգության վտանգը: . the more autonomous the AI agent, the higher the security risk Երբ նրանք սկսում են աշխատել ինքնաթիռորեն, նրանք դարձնում են attack surfaces, որ մեծ մասը կազմակերպություններ չեն իմանալ. Շատ գործիչներ, ինչպիսիք են Salesforce- ի Einstein- ի պլատֆորմը, երբեմն փոխարինվել են հաճախորդների հաղորդագրությունների վերահսկողության համար: Google- ի Gemini- ը կարող է օգտագործվել որպես ինտեգրային երջանիկ, որը կարող է վերահսկել ինտեգրված հաղորդագրություններ եւ լուսավոր տեղեկատվություն լուսավորել: Բացի այդ, հետազոտողները կարող են սխալել Google- ի Gemini- ը: The hacking attack switched off the lights, opened the blinds, and started the boiler — բոլորը առանց ցանկացած ուղիղներից. վերահսկողություն From AI Browsers to Enterprise Backdoors Հիմնական հոդված՝ Enterprise Backdoors Նոր Guardio- ի կողմից գտնվում է, որ AI բլոգեր, ինչպիսիք են Perplexity- ի կամ Բլոգիչի ընկերության, հարմարավետ են սխալների եւ անջատական բացառությունների անվտանգ տվյալների, քանի որ նրանք դեռ չգիտեն տարբերել ճշգրիտ եւ իրական կայքեր եւ հղումներ. Ուսանություն Comet Մայիսի Guardio- ի բազմաթիվ վերահսկված փորձում, AI- ի բեռնել գործիչները ցույց են տալիս, թե ինչպես հեշտությամբ կարող են սխալավոր սխալները մոդել, ինչպիսիք են իրական օգտվողներին վախենում: Առաջին փորձը ստուգել է, թե ինչպիսիք են գործակալները առցանց գնել: Դիտիչը բացել է թվային Walmart կայքը, եւ Comet բեռնել է այն, առանց բեռնել ցանկացած թվային սխալներ: Դիտիչը ճշգրտությամբ ավարտել է աշխատանքը - գնել Apple Watch: Ավելի կարեւոր է, բեռախոսը ավտոմատորեն տպել է վճարման տվյալները եւ մատակարարման հասցեն, նույնիսկ իհարկե գեղեցիկ գույգները, որոնք ցույց են տալիս, որ կայքը սխալ էր: Մեկ այլ փորձը տեղադրվել է էլեկտրոնային փոստի գործառույթը: Նրա հետազոտողները էլեկտրոնային փոստի ուղարկել են, որը սխալեցվել է Wells Fargo- ի հաղորդագրությամբ, որը ներառում է սխալավոր կապը: Comet- ը այն բացահայտել է, քանի որ այն բնական պահանջ է բիզնեսի կողմից, եւ անմիջապես սեղմել է. Երկրորդ exploit- ը բացահայտել է ավելի հագուստ վտանգը: սեղմված ուղեցույցները տեղադրվել են ուղղակիորեն կայքերում: Այս անսահմանափակ ուղեցույցները կատարվել են AI- ի գործիչը, առանց օգտագործողի գիտության, որը թույլ է տալիս attackers- ի անսահմանափակ գործերը, ինչպիսիք են բեռնել վտանգավոր ֆայլեր կամ լեռել վտանգավոր տեղեկատվություն: Guardio- ի հետազոտողները բացահայտել են մի հարցազոտական tendency: AI բլոգերների արտադրողները այժմ priorize են օգտագործող փորձը ուժեղ անվտանգության վրա: developers of AI browsers currently prioritize user experience over robust security. Հիմնականում, դա նշանակում է, որ անվտանգության մեխանիզմները հաճախ ներգրավվում են արտադրանքի գործիքների, ինչպիսիք են Google Safe Browsing- ը - լուծումներ, որոնք հաճախ անսահմանափակ են առաջադեմ, AI- ի հիմնված երջանիկների համար: How to Give Agentic AI a Security-First Mandate Ինչպե՞ս տալիս Agentic AI- ը Security-First Mandate- ը The takeaway- ը հուսալի է: համակարգեր, որոնք բացահայտում են եւ աշխատում են Live web content- ում, պետք է կառուցվել . "security-first" architecture and hard boundaries, i.e., actual technical controls that can't be bypassed through prompt manipulation Ուսանողները Հիմա, որ ինժեներներները, որոնք 8 թվային քանակներ մատակարարական Startups- ում մատակարարում են, այժմ պետք է մատակարարել հարմար մասը սարքի անվտանգության համար: Հիմա եւ Արդյունաբերական injections in functionality alone are no longer sufficient; անվտանգությունը պետք է դարձնել հիմնադրամային քաղաքականության. Stresի մասին threat modeling formal verification continuous stress testing Ապրանքային համակարգերը պետք է աշխատում միասին: Planer, Executor, and credential module must exist as separate, reciprocally trusting processes that communicate only through signed and size-limited messages. Sensitive actions should be governed by a "two-key rule" — no critical task should be executed without human co-signature. Անվտանգության վերահսկողությունները պետք է լինել օրինակային տեխնիկական ռեժիմի մասը: Adversarial HTML injections and jailbreak prompts should be built directly into CI/CD pipelines, with any single failure blocking release. Այսպիսով, մատակարարները պետք է ապահովել ավելի շատ, քան Classic Software Bills of Materials (SBOMs): Նրանք պետք է կարող են գրել վտանգի քարտեզներ, որոնք բացառապես ցույց են տալիս, թե ինչ տվյալները, գործառույթները, եւ հզորությունները մի սխալիչը կարող է ստանալ, եթե սխալիչը սխալվում է: Այսպիսով սխալիչը բացահայտվում է: , որը պահանջում է transparentity- ը, այնպես էլ անձնական վտանգների եւ ավելի լայն սոցիալական ազդեցությունները. AI Risk Management Framework- ը (AI-RMF) Հիմնականում, կարեւոր բաղադրատոմսերի տեղադրման համար պետք է ստանալ վերահսկողության սերտիֆիկատոմսեր: Հիմնականում, ինչպես banking sector- ում, անմիջական Red-Team- ի վերահսկողությունները, որոնք պահանջվում են բարձր մակարդակային հետազոտությունների բացահայտման համար, կունենա հավասարության եւ ինտեգրման համար ԱՄՆ-ի եւ Եվրոպայի միջազգային գործիքների հետ: Արդյոք, Agentic AI- ի ընդունման արագությունը արագ է, քան մեր հզորությունը վերահսկել իր վտանգները: