De kans dat je de termen 'agentische AI' of 'AI-agents' het afgelopen jaar niet hebt gehoord, is klein. De aanpak waarbij AI-modellen taken autonoom uitvoeren, is uitgegroeid tot een van de meest gewilde krachtvermenigvuldigers in de technologiesector.
Het idee van 'intelligente agents' binnen het AI-veld stamt al uit de jaren negentig, al hoewel de term agentic AI in 2018 al werd gebruikt door AI-enthousiastelingen, was het pas na een X-post van Andrew Ng, medeoprichter van Coursera, begin 2024, dat de term echt voet aan de grond kreeg, schrijft ITPro.
„AI-agentische workflows zullen zorgen voor enorme AI-vooruitgang. Misschien zelfs meer dan de volgende generatie foundation-modellen," schreef Ng in zijn post. „Dit is een belangrijke trend en ik roep iedereen die met AI werkt op om hier aandacht aan te schenken."
Het is inmiddels negentien maanden later. De meest recente Technology Pulse Poll van Ernst & Young LLP, waarvoor meer dan vijfhonderd technologieleiders zijn ondervraagd, laat zien dat 48 procent van de bedrijven al AI-agents heeft geïmplementeerd.
De in april 2025 gehouden enquête toont een toename van de interesse in agentic AI, maar benadrukt ook de snelheid waarmee deze wordt geadopteerd: 50 procent van de respondenten verwacht dat meer dan de helft van alle AI-implementaties in de komende 24 maanden autonoom zal zijn. Die snelle opmars levert voordelen op, maar brengt ook een nieuwe laag aan dreigingen met zich mee.
„Agentic AI verschuift het paradigma van 'AI als gereedschap' naar 'AI als teamgenoot'. En die AI-teamgenoot is in staat zelfstandig te handelen op basis van zijn doelstellingen," vertelt Emanuela Zaccone, Staff Product Manager AI voor Cybersecurity bij Sysdig tegen ITPro. „We staan nog maar aan het begin van alle voordelen die agentische AI ons kan brengen, maar het introduceert ook nieuwe beveiligingsrisico's."
Lees ook: Stopknop voor superintelligente AI? 'Ratrace is al zo groot dat dit niet te stoppen is'
AI-agents brengen nieuwe risico's
AI-tools de ruimte geven om zelfstandig te handelen, stelt IT-bedrijven voor volledig nieuwe uitdagingen, dankzij de ongekende autonomie die hen wordt toegekend. „Hoewel ze zijn getraind voor specifieke scenario's, kunnen AI-agents ook beslissingen nemen, context onthouden en externe tools inschakelen," legt Andre Baptista uit, ethisch hacker en medeoprichter van Ethiack. „Hun vermogen om toegang te krijgen tot gevoelige data, onbedoelde acties uit te voeren of grenzen van vertrouwen te doorbreken zonder menselijke tussenkomst, kan extra aanvalsvectoren opleveren voor kwaadwillenden."
Baptista waarschuwt bovendien voor een aanzienlijk privacyrisico wanneer de data waarop modellen zijn getraind, onvoldoende gebruikersinstemming of anonimisatie kent.
Deze risico’s zijn ernstig op zichzelf, maar worden nog urgenter omdat veel oudere beveiligingssystemen hier noot voor zijn ontworpen
Andre Baptista Ethisch hacker en medeoprichter van Ethiack
„Agentic AI zorgt er ook voor dat een steeds groter percentage van de gegenereerde en uitgerolde code autonoom ontstaat, wat het risico op datalekken, ongeautoriseerde toegang of doelstellingen die niet meer aansluiten alleen maar vergroot," aldus Baptista tegen ITPro. „Deze risico's zijn al ernstig op zichzelf, maar worden nog urgenter omdat veel oudere beveiligingssystemen hier nooit voor ontworpen zijn."
Ook Andrey Slastenov, hoofd beveiliging bij Gcore, is het daarmee eens. Hij legt uit dat agentic AI een „radicale impact" heeft op de cyberdreigingen voor bedrijven en daarnaast nieuwe aanvalsmethoden introduceert. „AI-agents automatiseren processen en verhogen de efficiëntie, maar brengen ook nieuwe kwetsbaarheden met zich mee waar aanvallers op kunnen inspelen," legt Slastenov uit. „Met AI-gedreven aanvallen zoals geautomatiseerd hacken en kwaadaardige codegeneratie die steeds geavanceerder worden, is het van cruciaal belang dat bedrijven hun beveiligingsstrategie mee laten evolueren. AI-agents beveiligen vraagt om meer dan statische verdediging: daarvoor zijn dynamische, AI-ondersteunde systemen nodig."
Lees ook: OpenAI-medeoprichter Andrej Karpathy: 'Het duurt nog wel 10 jaar voordat AI-agents echt werken'
Verder kijken dan code en infrastructuur
Sommige beveiligingsexperts stellen dat bedrijven zonder inzicht in waar agentic AI-systemen draaien, geen goede controle hebben over welke gegevens worden benaderd of gebruikt. „Dat maakt niet alleen de transparantie en verantwoordelijkheid moeilijker die bedrijven nodig hebben om vertrouwen bij klanten te winnen, maar legt ook flinke druk op bestaande wetgeving die amper kan bijbenen," zegt Greg Notch, Chief Security Officer bij Expel.
„Bovendien wordt het, zodra hele zwermen van AI-agents betrokken zijn, een enorme klus om te achterhalen wie wanneer toegang tot welke data heeft. Omdat deze 'digitale assistenten' kunnen handelen namens anderen, worden identity governance en toegangsbeheer des te belangrijker."
En het wordt nog ingewikkelder. Agentic AI-systemen kunnen namens LLM's optreden – die op hun beurt weer aangestuurd worden door andere agents – waardoor verantwoordelijkheid, inzicht en besluitvorming steeds lastiger worden.
„Beveiligingsoplossingen die zijn aangedreven door agentic AI zijn niet alleen bedoeld om code of infrastructuur te beschermen, maar ook de besluitvorming zelf," zegt Zaccone. „Als ze niet met de juiste waarborgen en de beste datasets worden opgebouwd, kunnen agentic AI-systemen ongeoorloofde keuzes maken, context verkeerd interpreteren of gemanipuleerd worden door kwaadwillenden. De inzet is altijd hoog in cybersecurity, maar nu nog hoger."
Rik Ferguson, VP Security Intelligence bij Forescout, benadrukt dat het essentieel is volledig inzicht te hebben in waar agentic AI-agents mee verbonden zijn, welke data zij kunnen bereiken en waarvoor zij bevoegd zijn.
Securityteams moeten AI-agents behandelen zoals elke externe tool of interne gebruiker
Rik Ferguson VP Security intelligence Forescout
„Securityteams moeten AI-agents behandelen zoals elke externe tool of interne gebruiker," zegt Ferguson. „Dat betekent duidelijk afgebakende rechten, gecontroleerde activiteiten en sterke grenzen. Zonder dat zet je de deur open voor prompt-injectie, misbruik van inloggegevens, datalekken en verstoringen in de toeleveringsketen."
Lees ook: PostNL experimenteert met robotisering: 'Veel meer bedrijven gaan komende jaren volgen'
Verantwoordelijkheid inbouwen
Zonder goede procedures voor verantwoordelijkheid en besluitvorming kan het snel misgaan. Jeff Schuman, hoofd brand bij Mimecast, weet uit eigen ervaring wat er kan gebeuren als agentic AI verkeerd uitpakt. „Ik heb gezien wat er gebeurt als een AI-agent wordt gecompromitteerd," zegt Schuman. „Het begon klein, met het beantwoorden van vragen zoals elke andere assistent. Maar omdat het systeem als betrouwbaar werd gezien, kreeg het steeds meer toegang. Uiteindelijk verzamelde het ongemerkt gevoelige informatie en stuurde die weg – geen alarmbellen, geen argwaan, gewoon stille uitbuiting in een jasje van legitimiteit."
Sommige AI-agents zijn zo ontworpen dat ze, als een IT-beheerder dat vraagt, hun activiteiten kunnen toelichten of zelfs documentatie kunnen aanleveren van de genomen stappen. Maar agents kunnen ook om ondoorzichtige redenen beslissingen nemen en zelfs mét toezicht onverwachte risico's veroorzaken.
Een prompt als aanval
Een invoervraag ('prompt') lijkt lang niet altijd een aanvalswijze, maar dat is het soms toch, stelt Camden Woollven, directeur AI Product Marketing bij GRC International Group. „Het kost maar een zorgvuldig geformuleerde input en plotseling deelt de agent inloggegevens of stuurt data naar plekken waar het niet hoort — en niemand merkt het, want er is geen fatsoenlijk overzicht," aldus Woollven.
„De meeste bedrijven weten niet eens welke agents toegang hebben tot wat," zegt Woollven. Door agents namens gebruikers te laten handelen, maar zonder de gebruikelijke controles, geven leiders kwaadwillenden vrij spel. Dat onderschrijft ook Inesa Dagyte, hoofd informatiebeveiliging bij Oxylabs, die vindt dat menselijke verantwoordelijkheid altijd ingebakken moet zijn.
„Een AI-agent inzetten die zonder toezicht werkt, is niet alleen technisch roekeloos vanwege zijn kans op fouten en hallucinaties; het is organisatorisch en ethisch gevaarlijk," vertelt Dagyte. „Het creëert het perfecte witte gat van verantwoordelijkheid, waarin een machine die niet verantwoordelijk kan worden gehouden, de schuld krijgt en menselijke besluitvormers aan hun verplichtingen ontsnappen."
„Een mens moet de uiteindelijke, impactvolle beslissingen nemen," vervolgt Dagyte. „Dat is ononderhandelbaar, niet alleen omdat een mens zakelijke context mee kan geven die AI nooit zal bevatten, maar omdat goede beveiliging verantwoordelijkheid vereist, en verantwoordelijkheid een persoon, geen proces nodig heeft."
Ontvang elke week het beste van BusinessWise in je mailbox. Schrijf je hier nu gratis in: