Agentische kunstmatige intelligentie (AI) belooft de manier waarop organisaties opereren te transformeren. In tegenstelling tot eerdere AI-tools die zijn ontworpen om documenten samen te vatten of content te genererenAgentische kunstmatige intelligentie (AI) belooft de manier waarop organisaties opereren te transformeren. In tegenstelling tot eerdere AI-tools die zijn ontworpen om documenten samen te vatten of content te genereren

Laura I. Harder: Hoe Besturen Voor te Bereiden op de Beveiligingsrisico's van Agentische AI

2026/03/19 13:28
6 min lezen
Voor feedback of opmerkingen over deze inhoud kun je contact met ons opnemen via [email protected]

Agentische kunstmatige intelligentie (AI) belooft te transformeren hoe organisaties opereren. In tegenstelling tot eerdere AI-tools die zijn ontworpen om documenten samen te vatten of content te genereren, kunnen deze systemen autonoom handelen, taken uitvoeren en interacteren met bedrijfssystemen. Voor besturen die toezicht houden op technologierisico's, introduceert die verschuiving een fundamenteel andere categorie van beveiligingszorgen. Laura I. Harder, Vice President van de Information Systems Security Association (ISSA) International en een offensieve cyberofficier in de U.S. Air Force Reserves, gelooft dat veel leiders onderschatten hoe snel die risico's zich kunnen manifesteren. "Het risico voor organisaties komt eigenlijk neer op het hebben van te veel autonomie," zegt Harder. "Agents kunnen machtigingen wijzigen, functionaliteit aanpassen en acties creëren die je misschien niet verwachtte." Naarmate organisaties overgaan van experimenteren met AI naar het operationaliseren van autonome agents, moeten besturen net zo snel bewegen om governancestructuren, veiligheidsmaatregelen en toezichtmechanismen te vestigen die in staat zijn systemen te beheren die beslissingen kunnen nemen en actie kunnen ondernemen zonder menselijke tussenkomst.

Agentische AI Verandert de Beveiligingsvergelijking

De afgelopen jaren zijn de meeste zakelijke AI-implementaties gericht geweest op tools die informatie analyseren of output genereren. Die mogelijkheden introduceerden privacy- en data-integriteitszorgen, maar de systemen zelf voerden zelden acties uit binnen bedrijfsomgevingen. Agentische AI verandert die dynamiek. In plaats van simpelweg aanbevelingen te bieden of cv's te filteren, kunnen agents workflows activeren, databases benaderen en interacteren met softwaresystemen binnen een organisatie. "Het geeft ons nu niet alleen advies. Het onderneemt actie en handelt zelfstandig," zegt Harder.

Laura I. Harder: How to Prepare Boards for the Security Risks of Agentic AI

Die autonomie creëert nieuwe beveiligingsuitdagingen omdat de systemen gemanipuleerd kunnen worden. Net zoals mensen kunnen vallen voor social engineering, kunnen AI-agents misleid worden om onbedoelde taken uit te voeren via technieken zoals prompt injection. Harder wijst naar praktijkvoorbeelden waarbij verborgen instructies in inputs veranderen hoe AI zich gedraagt. "De AI zal zich gedragen op basis van de instructies die het krijgt," zegt ze. Deze bedreigingen worden versterkt door de ondoorzichtige aard van veel AI-modellen. Organisaties vertrouwen vaak op third-party tools zonder volledig inzicht in hoe beslissingen worden genomen. Het resultaat is een systeem dat in staat is acties uit te voeren terwijl het op manieren opereert die moeilijk te voorspellen zijn.

Het Verborgen Risico Dat Besturen Vaak Over Het Hoofd Zien

Wanneer besturen beginnen met het evalueren van agentische AI, zegt Harder dat de meest onderschatte kwetsbaarheid machtigingen zijn. Elke AI-agent opereert binnen een netwerk van systemen, databronnen en applicaties. Het niveau van toegang dat aan die systemen wordt verleend, bepaalt de potentiële schade als er iets misgaat. Harder beschrijft dit als de "blast radius" van het systeem. Een agent die brede machtigingen krijgt, kan mogelijk interacteren met veel meer data en infrastructuur dan leiders beseffen.

Een veelvoorkomend voorbeeld doet zich voor wanneer AI-systemen verbonden zijn met interne samenwerkingstools of documentrepositories. Als een breed gedeelde map gevoelige informatie bevat, zal een agent die in die omgeving opereert toegang kunnen krijgen tot en die data kunnen gebruiken binnen de machtigingen verleend aan de gebruiker, serviceaccount of integratie waaronder het draait. In de praktijk betekent dit dat de agent informatie aan het licht kan brengen of erop kan handelen die misschien breed toegankelijk was maar niet actief gemonitor werd.

Third-party AI-services introduceren een extra risicolaag. "Als je een model gebruikt, tot welke informatie heeft dat model toegang, en kan jouw informatie gebruikt worden om dat model te trainen?" vraagt Harder. Zonder duidelijke controles, zou eigendomsinformatie, intellectueel eigendom of gevoelige klantdata onbedoeld de organisatie kunnen verlaten via AI-interacties.

Governance Bouwen Die Kan Bijblijven Met AI

AI-governance moet behandeld worden als een gestructureerd programma in plaats van een technologie-toevoeging. Organisaties zouden moeten beginnen met het vestigen van een toegewijd AI-governance board, vaak gemodelleerd naar bestaande privacy- of risicogovernancecomités. Die groep zou gevestigde frameworks moeten adopteren zoals het NIST AI Risk Management Framework of internationale standaarden zoals ISO 42001. "Het hebben van AI-governance en AI-bescherming is niet alleen een product dat je kunt kopen," zegt ze.

Deze frameworks bieden begeleiding over beleid, risicobeoordelingen en operationele controles. Maar ze vereisen nog steeds dat organisaties definiëren hoe AI zal functioneren binnen hun omgeving en tot welke data het toegang mag hebben. "Je hebt beleid, procedures en inventarissen nodig," zegt Harder. "Die onderdelen zullen helpen de infrastructuur te bouwen waarvan je teams kunnen werken." Een opkomende praktijk is het creëren van een "AI bill of materials" die elke AI-tool die binnen de organisatie wordt gebruikt inventariseert, met welke systemen het verbindt en tot welke data het toegang heeft. Zonder die zichtbaarheid kunnen organisaties niet volledig begrijpen welke blootstelling wordt gecreëerd door autonome systemen die interacteren met bedrijfsinfrastructuur.

Veiligheidsmaatregelen Die Voorkomen Dat AI Ontspoort

Zelfs met governancestructuren op hun plaats, vereisen agentische systemen technische waarborgen die beperken hoe ze opereren. De meest effectieve strategie is om beveiligingscontroles vanaf het begin te ontwerpen. Systemen zouden aanvankelijk ontwikkeld moeten worden binnen gesloten, gecontroleerde sandbox-omgevingen met testdata (niet productiedata) en beperkte privileges. "Terwijl je jouw agentische systeem bouwt, zou je dit moeten doen in een sandbox," zegt ze. "Het is een gecontroleerde omgeving waar synthetische systemen kunnen opereren met laag risico en geen privilege."

Testen moet ook red teaming omvatten, waarbij beveiligingsprofessionals proberen het systeem te breken of het gedrag te manipuleren. Deze oefeningen leggen kwetsbaarheden bloot voordat systemen worden ingezet in productieomgevingen. "Het hebben van een mens in de loop zorgt ervoor dat als en wanneer jouw AI-tool besluit een beslissing te nemen die je misschien niet wilde, er een soort beperking is," zegt Harder. Isolatietechnieken kunnen ook risico beperken. In sommige architecturen zijn agents opgenomen binnen virtuele machines waar beleid beperkt welke commando's ze kunnen uitvoeren en tot welke systemen ze toegang hebben.

Toezicht Door Het Bestuur Is Uiteindelijk Belangrijk

Voor besturen is de opkomst van agentische AI een governance- en verantwoordelijkheidsuitdaging en Harder benadrukt dat organisaties verantwoordelijk blijven voor de acties die hun AI-systemen ondernemen. "Je kunt niet terugkomen en zeggen, 'Ik wist niet dat het dit kon doen,'" zegt ze. "Je moet je due diligence doen." Die verantwoordelijkheid heeft zowel juridische als fiduciaire implicaties. Besturen moeten ervoor zorgen dat autonome technologieën worden geïmplementeerd met duidelijk toezicht, beperkte autoriteit en continue monitoring. "Verbind agents niet met geprivilegieerde tools totdat je kunt bewijzen dat het beperkte autoriteit, menselijke checkpoints en monitoring heeft," zegt Harder. Naarmate agentische AI blijft bewegen van experimentatie naar kernactiviteiten, zullen de organisaties die succesvol zijn degenen zijn die governance en beveiliging behandelen als fundamentele vereisten in plaats van bijzaken.

Volg Laura I. Harder op LinkedIn voor meer inzichten.

Reacties
Marktkans
The AI Prophecy logo
The AI Prophecy koers(ACT)
$0.01379
$0.01379$0.01379
+0.21%
USD
The AI Prophecy (ACT) live prijsgrafiek
Disclaimer: De artikelen die op deze site worden geplaatst, zijn afkomstig van openbare platforms en worden uitsluitend ter informatie verstrekt. Ze weerspiegelen niet noodzakelijkerwijs de standpunten van MEXC. Alle rechten blijven bij de oorspronkelijke auteurs. Als je van mening bent dat bepaalde inhoud inbreuk maakt op de rechten van derden, neem dan contact op met [email protected] om de content te laten verwijderen. MEXC geeft geen garanties met betrekking tot de nauwkeurigheid, volledigheid of tijdigheid van de inhoud en is niet aansprakelijk voor eventuele acties die worden ondernomen op basis van de verstrekte informatie. De inhoud vormt geen financieel, juridisch of ander professioneel advies en mag niet worden beschouwd als een aanbeveling of goedkeuring door MEXC.