Dit jaar, in de tech, begon met de opkomst van Agentic AI. Een beetje minder dan twee maanden in 2026, het AI-debat is al , hun mogelijkheden, en hun voordelen voor bedrijven.Tussen agenten uitvinden Overnachting en sciencefiction scenario’s, een meer prosaïsche set van vragen ontstaat.Alleen een paar te noemen: de governance risico’s van het delegeren van taken aan machines, de impact op de menselijke arbeidskrachten, de toenemende behoefte aan . hijacked by AI agents Crustafarijnse religies human control and oversight Aangezien ik allergisch ben voor elke vorm van tech-hype, zal ik me niet onderwerpen aan het verhaal dat AI-agenten de planeet tegen kerst laatst overnemen.Maar bedrijven onderzoeken inderdaad de mogelijkheid om AI-agenten te implementeren om workflows te optimaliseren.De groeiende interesse in deze oplossingen lijkt te worden bevestigd door de opkomst van agentic AI governance frameworks. De eerste stappen van Singapore op het gebied van agentic AI governance In januari 2026 publiceerde de Infocomm Media Development Authority (IMDA) van Singapore zijn Ten eerste erkent het (vrijwillige) kader dat de "toegang tot gevoelige gegevens en het vermogen van agenten om veranderingen aan te brengen in hun omgeving" een geheel nieuw risicoprofiel creëert. Aangezien agenten financiële transacties kunnen uitvoeren of databanken met persoonsgegevens kunnen wijzigen, kan de omvang van deze potentiële risico's niet tot een minimum worden beperkt. Agentschap AI governance framework risk of outcomes becoming more unpredictable Agentschap AI governance framework Het model van Singapore gaat niet over het herschrijven van governance, maar Zo ook menselijke verantwoordingsplicht, menselijk toezicht en controle, die voortdurend moeten worden geïmplementeerd gedurende de levenscyclus van AI, voor zover mogelijk. adapting AI considerations and translating them for agents Agentic AI risks Het kader van Singapore erkent dat de risico's van Agentic AI niet te verschillend zijn van de LLM-gerelateerde risico's (SQL en prompt injectie, hallucinatie, vooroordelen, gegevenslekken, enz.) Een agent kan hallucineren door een verkeerd plan te maken om een taak te voltooien, of in een later stadium, tijdens de uitvoering, door niet-bestaande hulpmiddelen te bellen of ze op een vooroordeelde manier te bellen. Traditioneel the way they manifest themselves De risico’s zijn zelfs hoger wanneer agenten met elkaar interageren.Een fout door één agent kan een cascade-effect veroorzaken, als de Zoals hierboven vermeld, kunnen complexe interacties leiden tot onvoorspelbare uitkomsten en onverwachte bottlenecks in de keten van acties. wrong output is passed on to other agents Het model identificeert vijf sleutels, potentieel : harmful categories of risks Verbeeld een AI-agent die een IT-incident niet escaleert naar menselijke operators omdat de gedetecteerde anomalie niet overeenkomt met vooraf gedefinieerde drempels. Dit risico wordt geconfigureerd door een agent die acties onderneemt die buiten het toegestane bereik liggen. Biased of oneerlijke acties.We zijn bekend met vooroordelen omdat dit een frequent probleem is met traditionele AI, vooral binaire classificatiemodellen.De redenering hier is hetzelfde: denk aan een agent die een vooroordeelde aanwervingsbeslissing neemt. Een klassiek scenario is wanneer agenten onbedoeld gevoelige informatie onthullen, zonder het als gevoelig te herkennen, of een beveiligingsinbreuk door kwaadaardige actoren die via agenten toegang krijgen tot privé-informatie. Dit risico heeft betrekking op de gebeurtenis waarin een onrechtmatige actie die wordt ondernomen door een agent die met andere systemen interageert, zich verspreidt, waardoor de stroom van informatie of acties wordt verstoord (bijv. het per ongeluk verwijderen van een productiecode). Governance model Het governancemodel van IMDA is gebaseerd op vier pijlers. 1. Assessing risks upfront Deze stap omvat in wezen voor agent deployment, en . determining risks and use cases designing a risk control system Centraal bij het bepalen van gebruiksgevallen is de identificatie van risico's, beschreven als een functie van en Het model illustreert een reeks factoren die van invloed zijn op de potentiële impact van AI-agenten (implementatie domein, toegang tot gevoelige gegevens en extern systeem, reikwijdte en reversibiliteit van de acties van agenten) en waarschijnlijkheid (niveau van autonomie van agenten, taakcomplexiteit). Gemeenschappelijke bedreigingen kunnen geheugenvergiftiging, misbruik van gereedschappen en privilege compromissen zijn. impact likelihood potential external attack scenarios De volgende logische stap is om de limieten en machtigingen van agenten te definiëren. Dit betekent het produceren van beleidslijnen, procedures en protocollen die de limieten van agenten duidelijk uiteenzetten in termen van toegang tot hulpmiddelen en systemen, hun niveau van autonomie en gebied van impact (bijv. het inzetten van agenten in "zelfstandige omgevingen" met beperkte netwerk- en gegevenstoegang, vooral wanneer ze risicovolle taken uitvoeren, zoals code-uitvoering). . a mix of traditional identity access and human supervision is required 2. Making humans truly accountable De tweede pijler is bezorgd binnen en buiten de organisatie, zodat de De fundamentele premise van IMDA is dat organisaties en individuen verantwoordelijk blijven voor de acties van hun agenten. establishing clear responsibilities meaningful human oversight Binnen de organisatie moeten verantwoordelijkheden worden gedefinieerd voor: a) , met inbegrip van het vaststellen van doelstellingen op hoog niveau, limieten en de algemene benadering van governance; b) , met inbegrip van het definiëren van de vereisten van agenten, ontwerp, controles, veilige implementatie en monitoring; c) , met inbegrip van het opzetten van basisbeveiligingswachten en beveiligingstestprocedures; d) Externe actoren kunnen bijvoorbeeld modelontwikkelaars of agentische AI-aanbieders omvatten, en voor hen moet de organisatie duidelijke verantwoordelijkheden stellen. key decision makers product teams cybersecurity team users Het ontwerpen van betekenisvol menselijk toezicht omvat drie maatregelen. , zoals hoge inzet of onomkeerbare acties (bewerken van gevoelige gegevens of permanent verwijderen van gegevens), of buitenaf en atypisch gedrag (agenten die buiten hun reikwijdte handelen). , bijvoorbeeld door mensen te trainen om gemeenschappelijke mislukkingsmodi te identificeren en regelmatig menselijke controlepraktijken te controleren. . define action boundaries requiring human approval continued effectiveness of human oversight real-time alert monitoring 3. Implementing technical and control processes Op de top van de LLM-gerelateerde technische controle, de derde pijler beveelt aan om nieuwe controles toe te voegen die nodig zijn door de nieuwheid van Agentic AI gedurende de levenscyclus. Traditioneel Bedrijven moeten strenge controles voorafgaand aan de invoering invoeren. Bedrijven moeten een holistische benadering nemen bij het testen van agenten, waaronder het evalueren van nieuwe risico's, workflows en realistische omgevingen in datasets en het evalueren van testresultaten op schaal. AI, agenten moeten voortdurend worden gecontroleerd en getest na de implementatie, zodat mensen in real-time kunnen ingrijpen en debuggen waar nodig. en . using test agents Traditioneel agents work at speed companies may struggle to keep up 4. Enabling end-user responsibility Ten slotte, om de verantwoordelijkheid en verantwoordingsplicht van eindgebruikers te waarborgen - dat wil zeggen, degenen die AI-agenten zullen gebruiken en vertrouwen - moeten bedrijven zich richten op: (communiceren van de mogelijkheden en beperkingen van agenten) en Organisaties kunnen zich richten op transparantie voor gebruikers die interageren met agenten (externe gebruikers, zoals klantenservice of HR-agenten) en op onderwijs voor gebruikers die agenten integreren in hun werkprocessen (interne gebruikers, zoals codering assistenten). transparency education UC Berkeley’s Agentic AI framework UC Berkeley's Agentic AI framework In februari 2016 heeft een groep Het Center for Long-Term Cybersecurity van UC Berkeley heeft de Een kader voor risico’s Net als IMDA erkent het document de verhoogde risico's die worden geïntroduceerd door agenten, waaronder "onbedoelde doelgerichte vervolging, ongeoorloofde privilege-escalatie of verwerving van middelen, en andere gedragingen, zoals zelfreplicatie of weerstand tegen shutdown". “Complexe traditionele, modelgerichte benaderingen van risicobeheer en vereiste governance op systeemniveau”. Onderzoekers Agentic AI Risk-Management Standards profiel broadly reflecting NIST AI Risk Management Framework (AI RMF) unique challenges Het kader van UC Berkeley was expliciet ontworpen voor Echter, zeggen de auteurs, het kan ook worden gebruikt door beleidsmakers en regelgevers "om te beoordelen of agentische AI-systemen zijn ontworpen, geëvalueerd en ingezet in lijn met toonaangevende risicobeheerspraktijken". single- or multi-agentic AI systems developers and deployers Agentic AI risks In vergelijking met IDMA identificeert het document een breder scala aan risico’s: Discriminatie en toxiciteit, met inbegrip van feedbackloops, verspreiding van giftige inhoud en verschillen in beschikbaarheid, kwaliteit en capaciteit van agentia. Privacy en beveiliging, met inbegrip van onbedoelde openbaarmaking van persoonlijke of gevoelige gegevens, gegevenslekken en resulterende mismatchresultaten. Misinformatie, vooral wanneer hallucinaties en verkeerde outputs van een agent worden hergebruikt door andere agenten. Schadelijke actoren en misbruik, waaronder het gemakkelijker uitvoeren van complexe aanvallen, geautomatiseerd misbruik, massale manipulatie, fraude en gecoördineerde invloedskampagnes. Mens-computer interactie, zoals verminderd menselijk toezicht, sociaal overtuigend gedrag en moeilijkheid voor gebruikers om agentengedrag te begrijpen of te bestrijden. Verlies van controle, met inbegrip van subversie van toezicht, snelle uitvoering die monitoring en reactie overtreft, en gedragingen die de mechanismen van stoppen of stoppen ondermijnen. Socio-economische en milieuschade, met inbegrip van ongelijkheid in de toegang tot agentschapscapaciteiten, collectieve ontheffing van macht en grootschalige economische en milieueffecten. AI-systeemveiligheid, storingen en beperkingen, waaronder autonome replicatie, mismatching, misleiding, collusie, doelgerichte planning, real-world impact en onvoldoende menselijk toezicht. Focus on human control Net als IMDA zijn de normen van UC Berkeley voornamelijk gericht op En focussen op: enhance human oversight Menselijke controle en verantwoordingsplicht (duidelijke rollen en verantwoordelijkheden, waaronder duidelijke roldefinities, interventiecontrolepunten, escalatiepaden en shutdown-mechanismen) Risicobeoordeling op systeemniveau (vooral nuttig voor multi-agent interacties, gebruik van gereedschappen en toegang tot het milieu) Continu toezicht en post-deployment toezicht (agentisch gedrag kan in de loop van de tijd en in verschillende contexten evolueren) Defensie-in-diepte en afscherming (agenten behandelen als niet-vertrouwde entiteiten vanwege de beperkingen van de huidige evaluatietechnieken) Transparantie en documentatie (duidelijke communicatie van systeemgrenzen, beperkingen en risicobeperkende beslissingen aan belanghebbenden) De auteurs erkennen de beperkingen van hun eigen standaard. ten eerste, Agentic AI taxonomieën Ten tweede maakt het bcomplexe multi-systeemgedrag en verhoogde autonomie het moeilijk om robuuste menselijke controle en de juiste toewijzing van verantwoordelijkheid te waarborgen. widely vary and are inconsistently applied across the world Om deze reden, waarschuwen de auteurs, neemt het rapport een "voorzorgsbenadering aan, met de nadruk op conservatieve veronderstellingen, gelagerde waarborgen en voortdurende herbeoordeling".In plaats van een statische governance-checklist, moet het worden gezien als "een levendig kader dat bedoeld is om te evolueren naast agentschap AI-onderzoek, implementatiepraktijken en governance-normen". NIST design Zoals hierboven vermeld is het ontwerp van de Dit is een opzettelijke beslissing van de auteurs om bedrijven te helpen de risicobeheersprocedures toe te passen op een structuur waar ze vertrouwd mee zijn en een kader op te bouwen dat . overlaps that of NIST AI RMF consistent with existing practices More Agentic AI frameworks Meer agentschappelijke AI frameworks IMDA en UC Berkeley frameworks zijn onlangs gepubliceerd, maar zijn Er zijn verwijzingen naar verschillende andere modellen die processen en procedures beschrijven om de risico's van AI-agenten aan te pakken. not the only Agentic AI governance programmes to be proposed Agentsafe In december 2025 publiceerden drie Ierse IBM-deskundigen een rapport met een voorstel. , a voor LLM-gebaseerde agentsysteem. Agentschap tool-agnostic governance framework In de praktijk “operationaliseert Agentsafe de MIT AI Risk Repository door abstracte risicocategorieën in een gestructureerde reeks technische en organisatorische mechanismen” aan te passen aan agent-specifieke risico’s. , escaleert acties met een hoge impact op menselijk toezicht en beoordeelt systemen op basis van pre-deployment incident scenario's, waaronder beveiliging, privacy, eerlijkheid en systeembeveiliging. , biedt een methodologie die risico's koppelt aan tests, metricen en afkomst. constraints to risky behaviours assurance through evidence and auditability Agentschap lijkt een Een natuurlijke uitbreiding van Het is gebaseerd op ethische principes (verantwoordelijkheid, transparantie en veiligheid), wordt gevormd door gestructureerde risicobeheerprocessen in lijn met internationale normen en lijkt het potentieel te dragen om twee belangrijke uitdagingen van Agentic AI aan te pakken: en . very promising framework Traditioneel timely containment effective human oversight AAGATE In november 2025 publiceerden 11 ondernemers, onderzoekers en industrie-experts een Het voorstellen van de , gedefinieerd als een “NIST AI RMF-georiënteerd governance platform voor Agentic AI”. “Traditionele AppSec en compliance tools zijn ontworpen voor deterministische software, niet zelfgestuurde redeneringssystemen die in staat zijn om te improviseren.” Papier Agentic AI Governance Assurance & Trust Engine (AAGATE) Veronderstelling Om deze kloof te sluiten, AAGATE (Govern, Map, Measure, Manage), het integreren van “gespecialiseerde beveiligingsframes voor elke RMF-functie: het Agentic AI Threat Modeling MAESTRO-framework voor Map, een hybride van OWASP’s AIVSS en SEI’s SSVC for Measure, en de Agentic AI Red Teaming Guide for Management van de Cloud Security Alliance”. operationalises the above-mentioned NIST AI RMF principles U kunt een kijkje nemen in een vereenvoudigde samenvatting van AAGATE gepubliceerd op de . Cloud security alliantie NVIDIA’s Agentic AI risk framework November 2025 was ook getuige van de publicatie van een Agentic AI-beveiliging en -beveiliging Door een groep deskundigen van en het op Zürich gevestigde AI-bedrijf Het kader introduceert de Onder menselijk toezicht, om “bij te dragen aan contextuele risico-ontdekking, evaluatie en vermindering”. kader NVIDIA Lakera novel idea of using auxiliary AI models and agents In a nutshell, the risk framework involves four actors: Global Contextualized Safety Agent, die systeembrede beleidslijnen, risicogrenzen en escalatieregels vaststelt en handhaaft in alle agentschappen, met volledige zichtbaarheid en controleerbaarheid. Lokale Contextualised Attacker Agent, die fungeert als een ingebouwd rood team, het onderzoeken van het systeem met realistische en contextbewuste aanvallen op het oppervlak van opkomende risico's. Local Contextualized Defender Agent, die in-band beschermingen toepast tijdens de runtime, waarbij het minste voorrecht wordt geïmplementeerd, het gebruik van gereedschappen wordt gevalideerd en onveilig gedrag wordt opgenomen. Local Evaluator Agent, dat het gedrag van agenten bewaakt om veiligheid, betrouwbaarheid en afwijkingen te meten, waarschuwingen en governance-acties te activeren. The framework operates in two phases: Fase 1: Risicodetectie en -evaluatie. Het vindt plaats in een sandbox-omgeving en is ontworpen om opkomende risico's te detecteren die niet verschijnen in statische tests. Een ingebouwde aanvaller kan tegengestelde aanvallen simuleren (snelle injectie, vergiftigde opvanggegevens of onveilige toolketens), terwijl een evaluator volledige uitvoeringsporen bewaakt om veiligheid, betrouwbaarheid en beleidsconformiteit te meten. Fase 2: Embedded Mitigation en Continuous Monitoring. Het systeem past die controles toe in de productie. Het systeem draait met in-band verdedigingen die toegang met de minste voorrechten handhaven, gereedschapsoproepen valideren, wachtrijen toepassen en onveilig gedrag in realtime bevatten. Een monitoringcomponent evalueert voortdurend het gedrag van het systeem tegen verwachte trajecten en vooraf gedefinieerde risicogrenzen, triggerend waarschuwingen of menselijke escalatie wanneer dat nodig is. Agentic Risk & Capability (ARC) Framework Het team van Responsible AI in GovTech Singapore's AI Practice gepubliceerd op De , een programma voor technisch bestuur "om veiligheids- en beveiligingsrisico's in agentsche AI-systemen te identificeren, te beoordelen en te beperken". GitHub Agentic Risk & Capability (ARC) framework Interessant is dat het team een capaciteitsgerichte taxonomie heeft ontwikkeld die AI-agenten in drie hoofddomeinen categoriseert: Cognitieve vaardigheden (redenen, plannen, leren en besluitvorming) Interactievermogen (hoe agenten omgevingen of mensen waarnemen, communiceren en beïnvloeden) Operationele capaciteiten (of agenten acties veilig en efficiënt uitvoeren) Ze produceerden ook een risicoregister dat capaciteiten koppelde aan specifieke risico's: Componentrisico's (falen of kwetsbaarheden in systeemmodules) Ontwerprisico's (architectuur, logica of beslissingsloopproblemen) Capaciteitsspecifieke risico's (dreigingen die voortvloeien uit de vaardigheden van de agent, beloningshacken) Elk risico wordt vervolgens opgesplitst naar specifieke technische controles (garderrails, beleidslijnen, monitoring) om het te verminderen, waardoor direct risico-controle-traceerbaarheid wordt geboden. Ontdek meer op . GitHub Getting ahead of the singularity Op weg naar de singulariteit We zijn een lange weg van de Toch is het geen verrassing dat onze veranderde perceptie van wat AI-agenten werkelijk zijn - complexe softwaresystemen in tegenstelling tot humanoïde robots die klaar zijn om ons te vernietigen in onze slaap - ons ertoe drijft om ons zorgen te maken over de laatste in plaats van de eerste. horrors of the AI singularity Op dit moment zijn deze angsten irrationeel en moeten ze in de juiste context worden geplaatst. De bestuurskaders die wereldwijd opduiken, geven het signaal dat Agentic AI hier is om te blijven, de potentiële risico's zijn zeker reëel en sommige actoren werken aan het verbeteren van de . AI agents bringing as many benefits as potential dangers address them proactively