In 1995 was ik directeur van het eerste en oudste computercentrum van Nederland. Het Rijks Computer Centrum (RCC) in Apeldoorn. Net geprivatiseerd onder de naam Pink-Roccade. Streng beveiligd door de AIVD omdat daar maandelijks de salarissen van vele honderdduizenden ambtenaren werden betaald.
Een van de eerste dagen werd ik rondgeleid en kwam ik via beveiligde sluizen in de control room van het computercentrum, waar we uitzicht hadden op een immense zaal. Ver weg, rechts in de hoek, stond een kleine computer en verder was de zaal leeg.
„Tja, zo gaat dat”, zei de chief operator, „computers worden alsmaar kleiner en steeds krachtiger, dus binnenkort hebben we deze zaal helemaal niet meer nodig denk ik.”
De Wet van Moore in full force. Elke twee jaar is de computer (de processors) tweemaal zo klein, tweemaal zo krachtig en tweemaal zo goedkoop.
Dat was 1995, nu ruim 30 jaar geleden. Als je tegenwoordig weer naar dat computercentrum gaat, staat het stampvol met supersnelle computers die als gekken teksten, films, geluid, mails en WhatsApps verwerken. Want in 1995 hadden we nog geen enkel idee dat computers meer waren dan rekenmachines.
Dit is het derde deel van Leen Zevenbergens drieluik over AI. Zijn eerste stuk gaat over de AI-hype en het tweede stuk over de AI-bubbel die binnen twee jaar kan barsten.
Tekort aan computercapaciteit
Nu we alles aan het digitaliseren zijn en dus massaal data (zoals dat heet) opslaan en tot onze beschikking hebben, is er permanent een tekort aan computercapaciteit, verwerkingscapaciteit.
We verwerken wereldwijd zo’n 17 miljoen terabyte aan data per uur. En aangezien een groot rekencentrum gemiddeld zo’n 5.000 terabyte per uur kan verwerken, kun je nagaan dat er een enorme behoefte is aan deze hyperscale datacenters. Faciliteiten die letterlijk energie en water slurpen.
Supersnel dataverwerken
Maar wat heeft dat in vredesnaam met AI te maken? Welnu, alles. Dit is de backbone van wat we tegenwoordig AI noemen.
Was AI in de tweede zomer voornamelijk het vastleggen van menselijke kennis, hetgeen ook nog maar krakkemikkig ging, tegenwoordig is het supersnel massaal data verwerken. Zo supersnel dat het heel erg lijkt op de werking van de menselijke hersenen. Met veelbelovende toepassingen.
Een van de grote AI-wetenschappers beschreef het verschil tussen de tweede en derde zomer van AI onlangs als volgt. ‘The biggest difference between AI now and then is the massive and exponentially growing amount of data and the superfast computers to work with that data.’
Mensen worden moe, zijn af en toe slordig of hebben er even geen zin in, computers hebben die gevoeligheden niet
Hoe AI nu al wordt toegepast
Neem bijvoorbeeld de duizenden scans van menselijke lichamen en delen daarvan zoals longen, hersenen en dergelijke. Met daarin de diverse soorten van kankercellen en -gezwellen. Met een menselijk oog is daar erg moeilijk een analyse van te maken of massaal beelden te vergelijken. Maar met computer vision en pattern recognition kunnen we haarscherpe en massale analyses maken van kankersoorten en de daarbij behorende behandelwijzen.
De medische wetenschap, en dus de gezondheidszorg, is enorm geholpen met massale dataverwerking en patroonherkenning. Overigens, toegang tot medische kennis van ChatGPT helpt in de VS al vele miljoenen mensen die anders geen toegang tot artsen meer hadden. Ook al is het advies niet altijd correct, iets is beter dan niets. Het lijkt er dus op dat de medische wereld wel echt heel veel opschiet met AI zoals we die nu kennen.
Tientallen kilometers aan snelweg via foto’s beoordelen
Of neem het onderhoud van (snel)wegen en voorspelling daarvan. Dagelijks worden miljoenen foto’s gemaakt van wegdekken en andere infrastructuur. Tot op pixelniveau kunnen we dan zien waar steentjes uit het asfalt verdwenen zijn en waar de eerste beschadigingen optreden. Nu nemen menselijke experts nog vaak die beelden door om te beoordelen waar wegdek beschadiging onderhoud nodig heeft. En kunnen ze per dag tientallen kilometers aan snelweg via foto’s beoordelen. Terwijl computers tienduizenden kilometers feilloos aan kunnen.
En mensen worden moe, zijn af en toe slordig of hebben er even geen zin in. Computers hebben die gevoeligheden niet en kunnen 24/7 met eenzelfde zorgvuldigheid werken. Koppel dus massaal de wegdekbeelden aan de vaardigheid van een wegdek-expert en die expert is niet meer nodig. Maar ja, het was toch eigenlijk saai en monotoon werk.
Lees ook: Barst-ie wel of niet in 2026, die AI-bubbel?
Betere prestatie en minder kosten
Dit zijn dus al twee voorbeelden waar AI leidt tot betere prestaties en minder kosten. Met als cruciale ingrediënten: massale data en menselijke expertise.
We noemen dit weleens ‘menselijke taken van een onmenselijke omvang’. Cruciaal is dat we menselijke expertise modelleren en die laten beoordelen wat we met de data of uitkomsten van de LLM’s aankunnen.
Gebruik van ChatGPT, Copilot of andere LLM
Voorbeeldje daarvan is het gebruiken van ChatGPT, Copilot of een andere LLM bij juridische problemen zoals arbeidsrecht. Stel je hebt een arbeidsrechtelijk probleem met een medewerker en legt dat voor aan ChatGPT. Je krijgt dan een vriendelijk antwoord, maar zelden is dat antwoord geheel correct. Zou je dat opvolgen, dan zou je toch wel in behoorlijk wat problemen terecht kunnen komen. Het is dan ook aan te raden om het advies van de LLM te laten beoordelen door een echte jurist. Daarvoor kun je een expertsysteem gebruiken, zoals die in de vorige ‘AI-zomer’ ontwikkeld werden.
Het is grappig om te zien dat de AI-technologie van de tachtiger en negentiger jaren, modellen van expertkennis, nu gecombineerd kan worden met massale data die razendsnel verwerkt kan worden. Dat is dus echt een stapje verder dan rechttoe rechtaan LLM (ChatGPT), maar met superieure resultaten. Zover zijn we overigens nog niet.
Het derde terrein waar LLM’s (Claude en dergelijke) goed gebruikt kunnen worden, is het programmeren van software. Er zijn al veel voorbeelden waar de inzet van AI tot enorme versnelling van programmeren kan leiden.
Wat moeten we dan aan met de honderden zelfbenoemde AI-experts? Niks, zou ik zeggen
Ga zelf experimenteren met AI
Wat moeten we dan aan met de honderden zelfbenoemde AI-experts? Niks, zou ik zeggen. Uiteindelijk sterven die vanzelf af en we zagen dit soort van experts ook bij de opkomst van internet. Bedrijven die deze ‘experts’ inhuren komen er snel genoeg achter dat ze dit net zo goed zelf kunnen doen. Experimenteren met de vele tientallen chatbots is gratis en ik ken maar weinig mensen die nog geen gebruik maken van ChatGPT of een vergelijkbare LLM. Niet nodig om geld uit te geven aan de ‘prompt-adviseurs’.
Waar je wel echt voor moet oppassen is dat er nogal wat lekken van vertrouwelijke data ontstaan als je al je medewerkers ongecontroleerd met AI laat experimenteren.
Lees ook: ‘AI-experts bestaan niet’
Het rendement van de ingezette AI-tool
Een andere manier om je te weren tegen zogenaamde experts is heel zorgvuldig te meten wat precies het rendement is van de ingezette AI-tool. Wat is de besparing in tijd en kwaliteit, niet altijd eenduidig te meten overigens. Soms lijkt het sneller te werken als teksten of analyses door ChatGPT worden samengevoegd tot een rapportage, maar de controle daarop kan best wel wat tijd en deskundigheid vergen. En dan verdwijnt de tijdwinst weer door kwaliteitsverlies of benodigde controle-expertise.
Want let goed op: LLM’s geven geen enkele controle op kwaliteit, waarheid of correctheid. Je kunt dus makkelijke en snel in een moeras van vriendelijke onzin terecht komen. Het verraderlijke van deze AI-tools is dat ze een schijnbare ‘collega’ bieden, terwijl ze een collega bieden die je eerlijk gezegd niet had willen hebben. ‘Vriendelijke onzin’.
Mijn advies zou zijn: ga er van harte mee aan de slag. Experimenteer net zoals je destijds deed met internet. Stimuleer medewerkers of collega’s om ook te kijken wat ze ermee kunnen. Blijf een beetje weg van de ‘prompt-adviseurs’ en wees uitermate voorzichtig met het creëren van data-lekken, waardoor grote securityrisico’s kunnen ontstaan.
En tot slot: meet zo objectief mogelijk welke tijd- en kwaliteitswinst je boekt met het toelaten van AI in je organisatie.
Lees ook: Stop met het meten van tijdwinst: zo bereken je volgens Maartje Vennema de echte ROI van AI
Ontvang elke week het beste van BusinessWise in je mailbox. Schrijf je hier nu gratis in: