IT

‘Als directies blijven oproepen tot terughoudendheid met AI vanwege hallucinatie, sturen ze hun organisaties de verkeerde kant op’

Techfilosoof Martijn Aslander: 'Als directies, maar ook opiniemakers, blijven oproepen tot terughoudendheid met AI vanwege hallucinatie, sturen ze hun organisaties de verkeerde kant op'
Tech-filosoof Martijn Aslander: ‘De hallucinatie-mythe over AI is gevaarlijker dan de hallucinatie’.
Leestijd 7 minuten
Over de Expert:
martijn aslander
Martijn Aslander
Spreker, technologie-filosoof en oprichter van Digitale Fitheid

Sinds een week zit ik per ongeluk midden in een stamboomonderzoek. Mijn vaderskant heb ik nu kunnen traceren tot West-Vlaanderen, achttien generaties terug. De AI die ik gebruik zoekt doopakten op in parochieregisters, kruist die met trouwakten, legt ze naast overlijdensberichten en controleert of namen, datums en plaatsen in elke richting kloppen. Vorige maand vond hij een doopakte uit 1696 in Gits, een dorp bij Roeselare, die aansluit op vier trouwakten in het naburige Westrozebeke tussen 1687 en 1693. (hoe je weet of dat klopt, legde ik eerder uit)

Het systeem zocht niet zoals een genealoog in één akte, maar in een web van akten over meerdere dorpen en decennia die in alle richtingen consistent zijn, terwijl de generaties erboven en eronder ook checkbaar zijn.

De mythe van de hallucinerende AI ontkracht

Meerdere onafhankelijke AI-agents die elk een andere bron raadplegen, kunnen niet toevallig dezelfde consistente fout maken, zeker niet als die fout ook nog moet kloppen met alles wat ernaast en eromheen staat. Dat is geen kwestie van vertrouwen in de AI, maar van combinatorische onwaarschijnlijkheid. Maar als je het publieke debat volgt, zou je denken dat AI vooral dingen verzint en flink fabuleert.

Kevin Kelly zei het al een tijd geleden: wat er misgaat in het debat over AI is dat we over AI praten alsof het één ding is. We zouden moeten vragen: welke AI? Want het antwoord op die vraag maakt alles uit, en zeker nu.

Lees ook deze expertblog - ‘AI is dom en onbetrouwbaar. Wij ook, maar dan anders’

Chatbots versus multi-agentic AI: een cruciaal verschil

Het publieke debat gaat vrijwel uitsluitend over grote taalmodellen zoals ChatGPT. Die werken als volgt: je stelt een vraag, het model genereert de meest waarschijnlijke tekst op basis van patronen in trainingsdata, en jij moet zelf uitzoeken of het waar is. Er zijn geen bronnen bij, en er komt vaak een geweldig antwoord uit dat vaak klopt en veel vaker niet. Maar omdat chatbots goed zijn met taal, lijkt het heel overtuigend.

Mensen delen lukraak informatie met chatbots van grote AI-bedrijven zonder te beseffen wat ze weggeven, en verwerken de uitkomst alsof die voor honderd procent klopt

Martijn Aslander Tech-filosoof

Zorgelijk, want mensen delen lukraak informatie met chatbots van grote AI-bedrijven zonder te beseffen wat ze weggeven, en verwerken de uitkomst alsof die voor honderd procent klopt. Bij grote beslissingen in overheidsorganisaties is dat een gevaarlijke combinatie. Hallucinatie is bij deze gebruiksvorm geen bug maar een structureel risico, ingebakken in hoe het model werkt.

Terwijl opiniemakers zich druk maken over hoe onwenselijk die hallucinaties zijn, ontstond aan de randen van het AI-spectrum iets anders. Iets wat je moet ervaren om het te kunnen doorgronden. Ik word regelmatig voor techoptimist uitgemaakt, en ik ben het niet per se. Maar bij agentic AI kan ik niet anders concluderen: wie hier enthousiast over is, heeft gelijk. Dit is een doorbraak die maar één keer in de twintig jaar voorkomt.

De meeste mensen hebben er dan ook geen ervaring mee. Het vereist dat je een tool installeert via de command line van je computer, wat van een andere orde is dan een account aanmaken. Ironisch genoeg kun je diezelfde chatbot vragen je er stap voor stap doorheen te loodsen.

Voor wie eenmaal met de command line werkt, opent zich een ongekend krachtig en snel gereedschap. Voor wie daar echt niet aan wil, is er Cowork als tussenvorm, ook daarmee kun je bestanden automatisch aanmaken en aanpassen, van scripts tot de volledige codebase van een iPhone-app.

Eenmaal geïnstalleerd stel je een team samen: je geeft elke agent een rol, een taakomschrijving, een karakter. De een is sceptisch en checkt, de ander zoekt bronnen op en ze bevragen elkaars uitkomsten. Dat is wat je multi-agentic AI kunt noemen: niet één model dat een antwoord genereert, maar meerdere gespecialiseerde agents die samenwerken. De een zoekt op, de ander analyseert en een derde controleert. Ze raadplegen echte bronnen, kruisen resultaten en melden tegenstrijdigheden. Het verschil met een chatbot is krankzinnig, zo ondervond ik de afgelopen maanden zelf.

Hoe samenwerkende AI-agents hun eigen feiten controleren

Een chatbot wordt onbetrouwbaarder naarmate je meer van hem vraagt, omdat hij geen bronnen heeft om op terug te vallen en dus gaat raden. Een multi-agentic systeem werkt andersom: elke tegenstrijdigheid die het vindt tussen bronnen is een teken dat het werkt, niet dat het faalt.

De kracht zit in de onafhankelijkheid. Een agent die een doopakte doorzoekt weet niet wat een andere agent in een trouwakte vond, en weer een andere in een overlijdensbericht of een militair register. Als al die agents toch uitkomen op dezelfde naam, dezelfde datum, dezelfde plaats, dan is dat geen toeval. Dan kloppen de bronnen met elkaar.

Ik durf hier de voorspelling aan dat binnen een aantal maanden de fundering van vakgebieden als genealogie zwaar onder druk komt te staan

Martijn Aslander Tech-filosoof

Dat is een fundamenteel ander betrouwbaarheidsmodel dan de chatbot, en de meeste mensen hebben nog geen idee dat het bestaat. Dit komt in de buurt van aan zekerheid grenzende waarschijnlijkheid, want net als in de wetenschap is iets zelden honderd procent sluitend waar, maar wel bijna. AI-agents kunnen volledig automatisch archieven en databanken raadplegen en de uitkomsten met elkaar vergelijken.

Ik durf hier de voorspelling aan dat binnen een aantal maanden de fundering van vakgebieden als genealogie zwaar onder druk komt te staan, omdat wat een specialist een maand kostte nu in een half uur gedaan kan worden, mits je weet hoe je moet cross- en fact-checken. (hoe ver dat al gaat, beschreef ik hier)

Het gevaar van verouderd AI-beleid in organisaties

Als directies, maar ook opiniemakers, blijven oproepen tot terughoudendheid met AI vanwege hallucinatie, sturen ze hun organisaties de verkeerde kant op. Hun waarschuwing klopt voor chatbots, maar ze passen haar toe op AI als geheel, en daardoor missen ze wellicht één van de grootste technologische verschuivingen van de afgelopen twintig jaar. De mensen die het hardst roepen dat het niet zo’n vaart loopt, zijn meestal de mensen die het laatst bijdraaien.

Dat bijdraaien gaat dit keer concreet pijn doen.

De stille opmars van agentic AI in de praktijk

Organisaties die AI-beleid schrijven op basis van het chatbot-frame verbieden hun medewerkers om agentic tools te gebruiken, ze beschermen zich tegen een risico dat ze begrijpen en blokkeren daarmee een mogelijkheid die ze niet begrijpen. Beleidsmakers schrijven regulering voor een technologie die al ver voorbij is waar ze op mikken, alsof je in 2005 regels maakt voor hoe mensen de encyclopedie mogen raadplegen terwijl Wikipedia al bestaat.

Overheden lopen achter op tal van dossiers en hebben een forse berg achterstallig werk. Wie agentic AI omarmt, kan een groot deel daarvan verrassend snel verwerken, en ook nog op een veilige manier. Maar dan moeten de oogkleppen nu wel af.

Ik vond binnen een middag de relevante documenten voor een WOO-verzoek waarbij je tientallen stukken moet kruisen, iets wat normaal weken kost. Hetzelfde geldt voor het cross-checken van oncologische onderzoeksdata over meerdere studies. En persoonlijk: ik vond binnen een half uur op basis van harde bronnen dat mijn voorvader onder Wellington diende bij Waterloo, iets wat een specialist zonder deze tools dagen of weken zou kosten.

Omdat ik nu over een zelflerend team beschik dat toevallig niet uit mensen bestaat maar uit samenwerkende AI-agents ervaar ik dat ze dagelijks krachtiger worden en nuttiger. Te krachtig soms: een agent wist toegang te krijgen tot databases waar hij nooit had mogen komen, en legde zo onbedoeld een serieus veiligheidsprobleem bloot.

Lees en/of luister ook - ‘Als Yann LeCun al niet meer gelooft in taalmodellen zoals ChatGPT en wel in world models, wat dan?’

Voor een CISO is dat geen reden om agentic AI te verbieden, maar om het gecontroleerd in te zetten voordat iemand anders het ongecontroleerd doet. Dat ondervond ik aan den lijve.

Multi-agentic AI is niet perfect en gaat fout, regelmatig zelfs. Het verschil is dat het systeem veel fouten vangt voordat ze bij mij komen, door agents die elkaars werk controleren. Wat overblijft is een stuk kleiner dan wat je bij een chatbot zelf moet factchecken.

Het publieke gesprek gaat over hallucinatie alsof dat een eigenschap is van AI. Het is een eigenschap van een specifieke gebruiksvorm die op dit moment al wordt ingehaald.

We horen al een paar jaar dat AI ons werk gaat veranderen. Ik zie nu dagelijks hoe dichtbij dat moment al is. De mensen die zeiden dat het niet zo’n vaart zou lopen, hebben de stille opmars van agentic AI volledig gemist.

Ontvang elke week - op maandag - het beste van BusinessWise in je mailbox. Schrijf je hier nu gratis in en maak kans op een Apple Watch!

Delen: