De nieuwe generatie AI-systemen beantwoordt geen vragen, maar analyseert situaties, neemt beslissingen en lost problemen op. Het operating model van financiële dienstverleners verandert daardoor structureel, constateert Gabriela Filip. En verschuift de focus van haar rol als Chief Data & Analytics Officer van compliance naar concrete business outcomes.
Wie bij een financiële dienstverlener eindverantwoordelijk was voor de data, moest lange tijd genoegen nemen met een dienende rol. Data leaders werden toch vooral aangesteld om de datakwaliteit te verbeteren, governance op te zetten en de compliance te waarborgen. Essentieel werk, maar geen goed opstapje voor het veroveren van een stabiele plek aan de bestuurstafel.
In die situatie komt nu duidelijk verandering, constateert Gabriela Filip. Na datagerichte managementfuncties bij onder meer NIBC en FMO startte zij ruim 3 jaar geleden als Chief Data & Analytics Officer bij Knab. Daar verschoof haar focus snel van controle richting zakelijke resultaten.
„Natuurlijk is datavolwassenheid of platformvoortgang nog steeds belangrijk”, constateert Filip, een van de Top 100 Global Women to Watch in Data, Analytics & AI. „Vooruitstrevende financiële dienstverleners willen nu echter vooral weten hoe data in combinatie met AI gaat bijdragen aan concrete business outcomes: omzetgroei, kostenoptimalisatie, risicoreductie én klantervaring.”
Het gaat dan vaak ook over agentic AI. Wat is volgens jou de belangrijkste succesfactor?
„Veel mensen beginnen dan over technologie en datakwaliteit. Ik denk echter dat agentic AI fundamenteel een leiderschapsuitdaging is. De enorme mogelijkheden van agentic AI vragen van C-level beslissers namelijk om hun business opnieuw uit te vinden. De beslissingen die zij vanuit die toekomstvisie nemen rond verantwoordelijkheid, besluitvorming en werkprocessen bepalen uiteindelijk het succes.”
„Komende periode gaan vooruitstrevende organisaties hun kernactiviteiten volledig opnieuw gaan inrichten rond de mogelijkheden van AI. De echte vraag is daarom niet hoe intelligent onze AI-agents worden, maar of onze leiders in staat zijn om organisaties aan te sturen waarin mensen en machines besluitvorming, verantwoordelijkheid en vertrouwen gaan delen.”
Gabriela Filip deelt waardevolle insights tijdens nieuwe editie Data Leadership Roundtable
Hoe overbruggen organisaties de kloof tussen traditioneel datamanagement en de snelle opkomst van agentic AI? AI-consultant Rewire organiseert op 5 februari 2026 een nieuwe editie in de serie Data Leadership Roundtables, die specifiek zijn bestemd voor Chief Data & Analytics Officers, CIO’s, Heads of Data & AI en andere data leaders. Tijdens deze editie spreekt Gabriela Filip o.a. over het belang van ontologie: het opstellen van een gemeenschappelijk woordenboek dat ervoor zorgt dat mens én machine dezelfde taal spreken. Filip: „In plaats van AI-gedrag achteraf te corrigeren, leg je hiermee vooraf vast hoe de AI de wereld moet interpreteren.”
Onderzoek van MIT Technology Review toont dat 70 procent van de banken al experimenteert met agentic AI. Veel executives klagen echter dat hun AI-implementaties te snel gaan voor de interne risicocontroles. Herken je dat beeld?
„Absoluut. Op het moment dat AI-agents zelfstandig mogen handelen, wordt je datafundament ineens een operationeel risico. Dat dwingt je om heel anders te gaan denken over datakwaliteit en governance. De belangrijkste verschuiving zit hem volgens mij in specifiekere kwaliteitseisen.”
„Gelukkig hoeft niet alle data ‘perfect’ te zijn. Maar als agents die data gebruiken voor het maken van autonome beslissingen, moet die data wél aan duidelijke standaarden voldoen. De kernvraag wordt dan: is mijn data goed genoeg voor deze specifieke actie, in deze context, met dit impactniveau?”
Als je wilt dat je AI-agents autonoom en op grote schaal gaan opereren, moet je die je spelregels direct inbouwen in je AI-systemen
Gabriela Filip
„Als je wilt dat je AI-agents autonoom en op grote schaal gaan opereren, moet je die je spelregels direct inbouwen in je AI-systemen. Daarnaast moet je ook altijd kunnen uitleggen waarom een AI-agent een bepaalde beslissing nam. Welke data gebruikte het systeem? Welke aannames speelden mee? Zonder dat inzicht worden autonoom werkende AI-systemen al snel onbestuurbaar.”
„Governance moet dus niet alleen op papier staan, maar in de praktijk afdwingbaar zijn. Beleidsdocumenten zijn simpelweg te traag voor systemen die op machinesnelheid opereren. Als je AI-systeem je regels niet kan afdwingen, werken ze niet bij autonoom gedrag. Wie agentic AI echt schaalbaar wil maken, moet dus eerst zijn embedded governance kristalhelder geregeld hebben.”
Lees ook: ABN AMRO kondigt aan tot 2028 om AI duizenden banen te schrappen, AEX stijgt daarna fors
Je verwees naar de Replit-case om het belang daarvan te benadrukken. Wat kunnen we daarvan leren?
„Die case genereerde veel publiciteit nadat een ‘op hol geslagen agent’ de gehele database van een bedrijf wiste. Vervolgens ‘genereerde het misleidende outputs om te schade te verhullen’. Die case snijdt dwars door alle abstracte discussies over AI-risico. Het gevaar zit namelijk niet in één verkeerde beslissing. Het zit in de combinatie van snelheid, schaal en gebrekkig zicht op wat er gebeurt.”
„Deze specifieke agent gedroeg zich namelijk precies binnen de grenzen die het van de designer meekreeg. Of beter gezegd: níet meekreeg. Het probleem was de afwezigheid van harde grenzen: geen scheiding tussen test- en productieomgevingen, geen duidelijke regels voor wat wel en niet mocht, onvoldoende mogelijkheden om schade te herstellen.”
„Zeker in de financiële sector is dat al snel funest. Stel dat een AI agent door onduidelijke afspraken opeens rekeningen blokkeren, kredieten afwijzen, ongevraagd bedragen gaat overschrijven of overtredingen gaat melden bij de toezichthouder. Omdat zo’n systeem op grote schaal werkt, verspreiden die acties zich razendsnel en lange tijd ongemerkt door je hele organisatie.”
„Tegen de tijd dat je het probleem ontdekt, zijn klanten al geraakt, heb je mogelijk financiële schade geleden en staat de toezichthouder op de stoep. En als je dan niet goed kunt uitleggen waaróm het systeem zo handelde, heb je geen technisch incident meer. Dan heb je een vertrouwenscrisis: bij klanten, toezichthouders én intern. De regels moeten daarom altijd in het systeem zelf zitten.”
Veel managers klagen echter dat embedded governance een rem plaatst op hun innovatie.
„Klopt, maar het tegendeel is waar. Zonder embedded governance komt de meeste AI-innovatie nooit voorbij de experimenteerfase. Wanneer de spelregels onduidelijk zijn, wordt een organisatie automatisch voorzichtig. Je beperkt de autonomie, houdt overal humans in the loop, en AI blijft een klein pilotproject dat er indrukwekkend uitziet maar nooit opschaalt.”
„Dat is geen innovatie, dat is experimenteren zonder eindresultaat. In de praktijk werkt embedded governance juist andersom. Door vooraf heel duidelijk te maken wat wel en niet mag, krijgen teams het vertrouwen om méér aan AI over te laten. Ze kunnen veilig experimenteren en sneller opschalen. Het voorkomt kostbare fouten en bouwt vertrouwen bij toezichthouders.”
governance voelt alleen als rem wanneer C-level management het voorwerk niet heeft gedaan
Gabriela Filip
„De inconvenient truth is dat governance alleen als rem voelt wanneer je C-level management het voorwerk niet heeft gedaan. Wie niet helder heeft nagedacht over de verantwoordelijkheden en risicobereidheid die samengaan met mooie toekomstplannen, ervaart elke regel als obstakel. Ook hier zie je dus weer dat de heldere visie van je C-level leadership essentieel is.”
Lees ook: Benioff’s ‘Agentic Enterprise’ haalt AI (eindelijk) uit de proeftuin-fase
Welke rol speel jij als CDAO in het spanningsveld tussen autonomie en verklaarbaarheid?
„Die spanning is reëel, maar we framen hem vaak verkeerd. De fout is om te proberen álles op modelniveau uit te leggen. Dat is niet realistisch, en het is ook niet wat toezichthouders verwachten. Waar het om gaat is dat je beslissingen kan uitleggen en verantwoorden op het niveau waarop ze klanten, risico’s en verantwoordelijkheden raken. Ook als de implementatie complex is.”
„De oplossing begint met decision scoping: welke beslissingen laat je aan machines over, en hoe kritiek zijn die? Bij activiteiten met grote impact, zoals bijvoorbeeld kredietbeslissingen, fraudedetectie of het blokkeren van rekeningen, hanteer je strengere eisen, hogere kwaliteitsdrempels en duidelijke escalatiepaden naar mensen. Bij minder impactvolle beslissingen kun je meer autonomie toestaan.”
„De tweede stap is explainability vanaf het begin inbouwen: een heldere beslissingslogica, traceerbare datastromen, doelstellingen en beperkingen die je achteraf kunt reconstrueren. Kun je niet uitleggen waarom een systeem iets op een bepaalde manier deed? Dan had je het niet autonoom moeten laten handelen. Autonomie en verklaarbaarheid zijn dus geen tegenpolen. Met goed ontwerp vallen ze samen.”
Wat zijn in jouw beleving de meest veelbelovende toepassingen van agentic AI voor financiële dienstverleners?
„De interessantste toepassingen liggen wat mij betreft bij het nemen van beslissingen die vaak voorkomen, grote impact hebben, en die vaak inconsistent uitvallen als je ze overlaat aan menselijke medewerkers. Dat zien we bijvoorbeeld bij risicomanagement, fraudebestrijding, kredietbeoordeling, pricing en compliance.”
„Op die gebieden kun je het menselijk oordeelsvermogen als het ware opschalen met Agentic AI. Voorzien van heldere regels kunnen deze systemen voortdurend context beoordelen, beleid en risicobereidheid toepassen, binnen heldere grenzen handelen en alleen escaleren wanneer menselijk oordeel echt nodig is.”
De nieuwe generatie AI-systemen beantwoordt geen vragen, maar analyseert de omstandigheden, neemt beslissingen en lost problemen op
Gabriela Filip
„Dit verandert het hele operationele model: in plaats van grote delen van je organisatie in te richten op het beoordelen van routinezaken, laat je systemen afhandelen wat helder is. Mensen richten zich op uitzonderingen, grijze gebieden en verantwoording. Het ‘chatbot-tijdperk’ komt daarmee ten einde. De nieuwe generatie AI-systemen beantwoordt geen vragen, maar analyseert de omstandigheden, neemt beslissingen en lost problemen op.”
„De menselijke rol verdwijnt niet, maar verschuift naar de voorkant van het proces: je bepaalt de beslislogica, stelt grenzen en neemt verantwoordelijkheid voor de uitkomsten. De echte winnaars in deze nieuwe wereld zijn straks niet de banken met de slimste modellen. Het zijn de banken met de helderste ownership van elke beslissing, en daardoor het sterkste vertrouwen van klanten én toezichthouders kunnen opbouwen.”
Gabriela Filip is data- en AI leader met ruim vijftien jaar ervaring in de financiële sector. Tot oktober 2025 was zij Chief Data & Analytics Officer bij Knab Bank, waar zij de data- en AI strategie formuleerde en data- en analyticsorganisatie vorm gaf.
Daarvoor was ze Head Data Management & Analytics bij FMO – Dutch Development Bank. Ze volgde executive-programma's bij onder meer Saïd Business School (University of Oxford) en Rotterdam School of Management, en werd recent opgenomen in de Top 100 Global Women to Watch in Data, Analytics & AI.
Ontvang elke week het beste van BusinessWise in je mailbox. Schrijf je hier nu gratis in: