Grafitë kanë mbështetur prej kohësh sigurinë kibernetike; rëndësia e tyre është rritur vetëm me kompleksitetin në shkallë cloud. Unë kam studiuar më parë se si Mapping repos, ndërtimin e vendeve të punës, sekretet, drejtuesit, dhe certifikatat cloud në shikime të lidhura që pasqyrojnë se si mendojnë sulmuesit. Mbrojtësit mund të mbrojnë mjediset e tyre CI / CD duke përdorur grafikë Mbrojtësit mund të mbrojnë mjediset e tyre CI / CD duke përdorur grafikë Ky artikull e rishikon atë ide në epokën e modeleve të mëdha të gjuhës dhe tregon pse grafikët janë çelësi për të lëvizur AI për sigurinë nga hype në diçka operative. tl;dr: kur kombinoni përfaqësimet grafike me arsyetimin LLM, ju merrni saktësi dhe shpjegueshmëri në një nivel që strukturat e të dhënave të sheshtë nuk mund të përputhen. tl;dr: kur kombinoni përfaqësimet grafike me arsyetimin LLM, ju merrni saktësi dhe shpjegueshmëri në një nivel që strukturat e të dhënave të sheshtë nuk mund të përputhen. Why cybersecurity isn’t keeping up in the age of vibe-everything Pse siguria kibernetike nuk qëndron në epokën e vibe-gjithçka LLM-të tashmë kanë riformuluar mënyrën se si ndërtohet softueri, por miratimi i sigurisë kibernetike akoma është i vonuar. Rezultatet mund të jenë një tipar, ku kreativiteti dhe fleksibiliteti janë të mirëseardhur edhe nëse rezultati është i papërsosur. Temperatura e lartë Temperatura e lartë Megjithatë, puna e sigurisë është thelbësisht e ndryshme: rezultatet e sigurisë kërkojnë saktësi, saktësi të fortë / rikthim dhe, po aq e rëndësishme, shpjegueshmërinë. Premtimi i LLM-ve në siguri është ende masiv. Sistemet agjentike mund të bashkojnë gjetjet, të shtojnë kontekstin që dikur mori ditë për t'u mbledhur dhe të zvogëlojnë në mënyrë dramatike kohën e klasifikimit. Modeli i vjetër i alarmeve statike nga lart e poshtë krijon lodhje në vend të qartësisë, edhe kur përforcohet me analizën e kohës së drejtimit. Edhe me kontekstualizimin e kohës së drejtimit dhe analizën e arritshmërisë, gjetjet "plate" mbeten të zhurmshme për shkak të pranisë së shumë variablave të vështira dhe të buta. Kur këto modele janë të bazuara në sinjale organizative si politika dhe prioritetet e rrezikut, dhe kur ato përfshijnë të dhëna mjedisore në kohë reale, rrjedha e punës ndryshon plotësisht.Imagjinoni një realitet ku agjentët janë të bazuar siç duhet, të shpjegueshme, dhe të pajisura me kontekst të përshtatshëm në sinjalet organizative (policitë, oreksin e rrezikut, kritikën e aseteve) dhe kontekstin mjedisor (konfigurimet, kërcënimet mbizotëruese, kontrollet). Grounding and explainability: Where things get complicated for LLMs in cybersecurity Themelimi dhe shpjegueshmëria: Ku gjërat bëhen të komplikuara për LLM në sigurinë kibernetike Parashikimi i tokenit të LLM është një sfidë themelore për rastet e përdorimit të sigurisë së LLM. Kur ju kërkoni një LLM për të shkruar një poemë, dhjetëra ose qindra tokenë të ardhshëm janë të besueshëm; gjatë 10 tokenëve të ardhshëm, kombinatorika shpërthen. Siguria është e ndryshme. Merrni parasysh vlerësimin e pozicionit të një instance EC2 bazuar në një rrjedhë thirrjesh API. Një token i gabuar (si p.sh. gabimi i etiketimit të një grupi të sigurisë ose mungesa e një rregulli të hyrjes) mund të anulojë të gjithë vlerësimin. Vendimet e brendshme të nivelit të ulët, të tilla si parashikimet token që çojnë në konkluzione faktike, duhet të kufizohen fort dhe të bazohen plotësisht në prova. Planifikimi / orkestrimi i nivelit të lartë mund të tolerojë një hapësirë më të gjerë parashikimi sepse ne mund të drejtojmë dhe të përmirësojmë hipotezën në mënyrë iterative. Shpjegueshmëria është kontrata me audituesit, inxhinierët dhe ekipet e rrezikut / përputhshmërisë.Pa një grafik, ju në mënyrë efektive i kërkoni ata të besojnë një rrjedhë probabilistike token. Me një grafik, çdo pretendim reduktohet në një rrugë të dukshme: cilat fakte (nodes) janë përdorur, cilat marrëdhënie (krahët) janë ndjekur, dhe ku janë futur ndonjë supozime. Kur grafitë vijnë në marsh Me mjedisin e modeluar si nyje dhe skaje (p.sh., EC2 → HAS_SG → SG → ALLOWS → CIDR), agjenti nuk është duke gjykuar mbi një rrjedhë token të përhapur; ajo është duke lundruar në një grafik të kufizuar, e cila dramatikisht zvogëlon hapësirën e kërkimit dhe e bën çdo hap të kontrollueshëm. Le të shohim një shembull hipotetik: Graph form: (i-0a12) -[HAS_SG]- (sg-0aa1) -[ALLOWS {proto:tcp, port:22}]- (0.0.0.0/0) (i-0a12) -[HAS_SG]- (sg-0bb2) -[ALLOWS {proto:tcp, port:5432}]- (10.0.2.0/24) Raw JSON: Raw JSON: { "Reservations": [{ "Instances": [{ "InstanceId": "i-0a12", "SecurityGroups": [ {"GroupId": "sg-0aa1","GroupName":"web-sg"}, {"GroupId": "sg-0bb2","GroupName":"db-sg"} ], "Tags": [{"Key":"Name","Value":"prod-web-1"}, ...], "BlockDeviceMappings": [...], "NetworkInterfaces": [{"Ipv6Addresses":[], "PrivateIpAddress":"10.0.1.23", ...}], ... }, ...] }], "SecurityGroups": [{ "GroupId": "sg-0aa1", "IpPermissions": [{ "IpProtocol": "tcp", "FromPort": 22, "ToPort": 22, "IpRanges": [{"CidrIp":"0.0.0.0/0"}], "UserIdGroupPairs": [] }, ...], "Description": "allow-ssh", ... }, ...] } Për të arritur të njëjtin konkluzion të sigurisë nga JSON i papërpunuar, një LLM duhet të kalojë nëpër një rrugë komplekse arsyetimi me shumë hapa: Vendosja e instancës "i-0a12" thellë brenda strukturës së ngulitur të Rezervimeve[0].Instanca[0] Parsing array SecurityGroups për të nxjerrë ID grupit Kryqëzimi i këtyre ID-ve kundër një seksioni të veçantë të SecurityGroups (potencialisht qindra rreshta larg) Zhytje në IpPermissions array të secilit grup Interpretimi i IpRanges për të kuptuar modelet e aksesit të rrjetit Kjo krijon një zinxhir të gjatë të inferencave nëpër pika të shpërndara të të dhënave, ku çdo hap paraqet potencial për gabim ose halucinacion. Përkundrazi, përfaqësimi graf ofron një rrugë të drejtpërdrejtë, ndoshta deterministike: Në aspektin e transformatorit, struktura e qartë e grafikut kufizon vëmendjen dhe përqendron shpërndarjen e tokenit të ardhshëm.Çdo kokë vëmendje mund të përqendrohet në skajet semantikisht të domosdoshme në vend që të analizojë strukturat e të dhënave të ngulitura. (i-0a12) -[HAS_SG]-> (sg-0aa1) -[Përshëndetje]-> (0.0.0.0/0) Duke marrë hua nga teoria e informacionit, ne e trajtojmë entropinë si pasiguri në një shpërndarje probabiliteti. këtu ne e përdorim atë heuristikisht për të kontrast (a) sa e paqartë është konteksti i hyrjes dhe (b) sa e gjerë është shpërndarja e tokenit të ardhshëm të modelit. Low entropy ⇒ explicit Entropia e ulët ⇒ eksplicit How scattered or ambiguous is the data the model must reason over? \ JSON:** High entropy - nested arrays, optional fields, implicit relationships. Context entropy (input): Low entropy - explicit nodes/edges encapsulate semantics and constrain interpretation. Graph: How many tokens are “acceptable” at each prediction step? For low-level security judgments, we want a small prediction space (ideally near-deterministic). Graph-grounded reasoning reduces generation entropy by providing fewer plausible next steps, aligning with how transformer attention concentrates probability mass. Generation entropy (output/tokens): High entropy - the model's attention must span across nested arrays, optional fields, and implicit relationships, which creates a diffuse attention pattern across hundreds of tokens. JSON: : Low entropy - focuses attention on explicit, typed relationships, dramatically reducing the attention entropy. Graph GraphRAG Oferta Zbatimi i Microsoft-it tregoi se kërkimi i bazuar në grafikë i tejkalon në mënyrë dramatike RAG tradicionale vektor për gjithëpërfshirje dhe diversitet (fitues 72-83% të krahasimeve në çift). Dëshmi konkrete për përfitimet Dëshmi konkrete për përfitimet Zvogëlimi i të dy llojeve të entropisë duke strukturuar kontekstin dhe duke kufizuar gjenerimin rrit saktësinë dhe i bën shpjegimet triviale: "Ne shënuam lëvizjen anësore sepse krahu X → Y ekziston dhe rregulli Z e lejon atë." Përveç reduktimit të entropisë, GraphRAG zgjidh pyetjet e sigurisë që janë të vështira për RAG-të vetëm me tekst duke kompozuar konkluzione nga marrëdhëniet në vend të një pasazhi të vetëm. Për "Cilat funksione të AWS Lambda mund të hyjnë në sekrete?", dëshmitë përkatëse - rolet, politikat e bashkangjitura, veprimet, ARN-të dhe kushtet - mungojnë në tekstin e pyetjes dhe shpërndahen në burime. Tackling the scale and semantics challenges Zgjidhni sfidat e shkallës dhe semantikës Siç vërejta në artikullin tim të mëparshëm, sfidat themelore mbeten: bazat e të dhënave grafike mbeten më të brishtë se magazinat tradicionale të të dhënave, shkallëzohen keq, kërkojnë modelim të kujdesshëm për të shmangur kurthet e performancës dhe mbajnë kosto më të larta operative. Këto pengesa teknike, të komplikuara nga mungesa e ekspertizës së grafit në shumicën e organizatave, krijojnë pengesa të konsiderueshme për miratimin.Por edhe nëse ekipet i kapërcejnë këto sfida fillestare, ata përballen me një problem edhe më të thyer: kalimi efikas i grafit në shkallë ndërmarrjeje. The Scale Challenge Konsideroni realitetin e modelimit të ekosistemeve masive, ndërmjet shitësve.Si mund t'i kalojmë këto grafika të përhapura në mënyrë efikase gjatë inferencës duke mbajtur kostot në përputhje me vlerën e biznesit? Edhe në qoftë se ne disi mund të përshtaten një skemë të tërë cross-vendor graf në një dritare kontekstuale, rezultatet do të jetë me gjasa të jetë zhgënjyese kur është e nevojshme jo-trival traversal. entropia e lartë do të degradojë performancën, ndërsa kostot token do të rritet me mundësi minimale për token caching për të kompensuar shpenzimet. Aplikimi i teknikave RAG për të shërbyer sub-grafet e skemave të fokusuara të përshtatura për detyra specifike të inferencës. Potential solution: The Semantic Gap Ndërsa skajet individuale mbajnë kuptim të qartë semantik (A → B), rrugët nuk e bëjnë.Merrni vektorin A → B → C: çfarë na tregon kjo zinxhir për marrëdhënien midis A dhe C? Pa semantikë të qartë, sistemet agjentike shpesh tejkalojnë ose keqinterpretojnë këto rrugë krejtësisht. Shfrytëzoni aftësitë e RAG për të lidhur vektorët e grafit (A→B→C) me vektorët e ngulitur, duke krijuar ura semantikë ku asnjë nuk ekzistonte më parë. Potential solution: Looking ahead Duke shikuar përpara Këto sfida nuk janë të pakapërcyeshme; ato janë probleme të projektimit duke pritur për zgjidhje elegante. Zgjidhjet dalin përmes qasjeve hibride, duke përdorur teknikat RAG për të gjeneruar nën-grafe të fokusuara për detyra specifike të inferencës, dhe lidhjen e vektorëve graf me vektorë të embedded për të krijuar ura semantike, ndër të tjera. Premtimi mbetet bindës: profesionistët e sigurisë bisedojnë me AI për atë që ka rëndësi tani, javën e ardhshme ose tremujorin e ardhshëm, në vend që të mbyten në mijëra alarme statike.