In de maand maart staat diversiteit steevast hoog op de agenda. Internationale Vrouwendag en de vele DEI-evenementen jagen het gesprek aan. Dit jaar merk ik dat de publieksvragen na mijn keynotes over diversiteit verschuiven. Het gaat niet langer alleen over ‘hoe zorgen we voor meer vrouwen aan de top?’. Steeds vaker klinkt de vraag: ‘Hoe zit het met generatieve AI en diversiteit?’ Die vraag is volkomen terecht en het negeren ervan kost bedrijven geld, reputatie en innovatiekracht.
De technologiesector was niet altijd een mannenwereld
Weinig mensen weten dat software ooit begon als een vrouwendomein. Bij de eerste programmeerbare computers in de jaren veertig en bij NASA in de jaren vijftig en zestig, waren vrouwen onmisbaar als programmeurs. Software was vrouwenwerk. De hardware, groot en zwaar, was voor mannen. Het werk van deze vrouwelijke pioniers bleef echter vaak onzichtbaar in de geschiedenisboeken. Pas in 2016 maakte de film Hidden Figures hun verhaal breed bekend.
Tot halverwege de jaren tachtig was meer dan vijfendertig procent van de studenten computerwetenschappen in de VS vrouw
Hoe is de balans dan zo verschoven? Tot halverwege de jaren tachtig was meer dan vijfendertig procent van de studenten computerwetenschappen in de Verenigde Staten vrouw, wat destijds vergelijkbaar was met studies als rechten of geneeskunde. Daarna daalde dat percentage razendsnel.
Tegelijkertijd gebeurde er iets interessants op de markt: de opkomst van de personal computer werd commercieel sterk gepositioneerd als speelgoed voor jongens. Populaire films zoals Revenge of the Nerds versterkten in de jaren tachtig het beeld van de slimme, mannelijke nerd. Jongens kwamen na verloop van tijd met jarenlange codeerervaring op de universiteit aan. Meisjes niet. De achterstand was al gecreëerd vóór de eerste studiedag.
Fast forward naar nu. In Nederland is minder dan 10 procent van de IT-ondernemers vrouw en slechts een kleine 17 procent van de ICT-werknemers. In Silicon Valley domineren mannen, de welbekende ‘Techbro’s’, het AI-spel vrijwel volledig.
Gekleurde trainingsdata als onzichtbaar risico
Kunstmatig intelligente systemen leren van gigantische hoeveelheden data, en het verzamelen en labelen van die data is gedeeltelijk mensenwerk. Mensen hebben vooroordelen, bewust of onbewust. Wanneer trainingsdata deze vooroordelen bevat, nemen de systemen ze genadeloos over en schalen ze deze razendsnel op.
We hebben dit patroon vaker gezien, ver buiten de AI-wereld. Crashtestdummies in de auto-industrie waren decennialang gemodelleerd op een gemiddelde man van zeventig kilogram. Het resultaat was dat vrouwen en kinderen bij een ongeluk tot 47 procent meer kans liepen op letsel. In de medische wereld hebben vrouwen zo’n 50 procent meer kans op een misdiagnose bij een hartaanval, simpelweg omdat medische data primair op mannelijke lichamen is gebaseerd.
Vroege gezichtsherkenningssystemen hadden bij vrouwen met een donkere huidskleur een foutpercentage van maar liefst 34 procent
Ditzelfde speelt nu in AI. Vroege gezichtsherkenningssystemen hadden bij vrouwen met een donkere huidskleur een foutpercentage van maar liefst 34 procent, tegenover minder dan 1 procent voor witte mannen. In HR zien we vergelijkbare risico’s: algoritmes voor cv-selectie wezen in het verleden systematisch vrouwelijke kandidaten af, omdat het model getraind was op historische data van succesvolle mannelijke werknemers. Dat hoeft niet te betekenen dat vrouwen minder goed of minder succesvol zijn, maar kan simpelweg betekenen dat er meer mannen bij het bedrijf solliciteerden en een onbewuste bias van recruiters ertoe leidde dat vrouwen vaker werden afgewezen.
De AI-modellen die populair zijn in Europa zijn sterk oververtegenwoordigd met content uit westerse, hoogopgeleide, rijke en democratische samenlevingen. Dit is wat onderzoekers het WEIRD-probleem noemen: Western, Educated, Industrialized, Rich, Democratic data. WEIRD in = WEIRD out. Voor een multinational betekent dit dat algoritmes beslissingen nemen die mogelijk totaal niet aansluiten bij een diverse, wereldwijde klantenkring. De brute rekenkracht van een AI-model doet er uiteindelijk minder toe dan de diversiteit en integriteit van de onderliggende data.
Lees ook: De verborgen prijs van een AI-reorganisatie: waarom bedrijven hun veerkracht kwijtraken
De spiegel die laat zien wat je wilt zien
Ieder jaar test ik de populaire generatieve AI-modellen met de vraag om een foto te genereren van een CEO op kantoor. ChatGPT genereert steevast een strakke afbeelding van een blanke man in een pak. Google beeldgenerator NanoBanana 2 toonde mij dit jaar een CEO met té veel bij mij passende kenmerken om toeval te zijn: een vrouwelijke CEO van Global Innovations, met een Nederlandse naam, in een modern kantoor waar de buitenwereld er behoorlijk Nederlands uitziet. Google sluit naadloos aan bij het profiel dat het over mij in zijn geheugen heeft opgebouwd.
Beide beelden zijn selectief, maar op verschillende manieren.
Zoals voormalig Google-ingenieur Blake Lemoine scherp opmerkte, heeft elk systeem dat niet volledig willekeurig is een bias. De vraag is niet of een AI bevooroordeeld is, maar of het de vooroordelen laat zien die de ontwikkelaar acceptabel vindt. Dat brengt ons bij de kern van het probleem voor directies. Vrouwelijke perspectieven spelen momenteel geen grote rol bij het ontwerp van AI-toepassingen. Onderzoek van Randstad laat zien dat 71 procent van de AI-vaardige werknemers man is. De mensen die de AI-tools bouwen, bepalen door welke bril die tools de wereld analyseren. Momenteel is dat primair een mannelijke bril.
Wie als bestuurder een AI-systeem aanschaft zonder te begrijpen welke biases het heeft, haalt onbewust een aanzienlijk bedrijfsrisico in huis
Van bedrijfsrisico naar strategische kans
Toch ligt hier een enorme kans. Als we de technologie slim en bewust inzetten, kan AI diversiteit juist actief bevorderen. Er bestaan al commerciële tools die vacatureteksten analyseren op onbewuste bias en deze neutraler maken om een bredere talentpool aan te boren. AI-gestuurde interviewtraining helpt kandidaten om zich beter te presenteren. Op de werkvloer ondersteunen AI-feedbacktools leidinggevenden om functioneringsgesprekken objectiever samen te vatten, en salarisanalysetools maken onverklaarbare beloningsverschillen direct inzichtelijk voor HR.
Maar dit werkt alleen als diversiteit en inclusiviteit harde selectiecriteria zijn bij de inkoop, bouw en implementatie van AI-tools. Wie als bestuurder een AI-systeem aanschaft zonder te begrijpen welke biases het heeft, haalt onbewust een aanzienlijk bedrijfsrisico in huis. Bovendien blijkt uit onderzoek dat meer diversiteit in ontwikkelteams leidt tot meer creativiteit en tot hogere retentiecijfers onder vrouwen. Diverse teams bouwen simpelweg betere, veiligere en commercieel succesvollere technologie. Dat inzicht hoort thuis in de kern van je bedrijfsstrategie.
Lees ook: Deze 10 beroepen gaan het meest merken van AI, blijkt uit onderzoek van Anthropic
Drie actiegerichte adviezen voor de bestuurskamer:
Grijp divers AI-talent aan als strategisch concurrentievoordeel. Zie het aantrekken van vrouwelijk en divers AI-talent niet als een HR-verplichting of een afvinklijstje, maar als een uitgelezen kans om de markt voor te blijven. Teams met uiteenlopende perspectieven zijn creatiever en bouwen betere oplossingen.
Behandel AI-bias als een strategisch risico. Zet inclusiviteit bovenaan de agenda van je AI-strategie, niet als ethische bijlage. Stel bij de selectie van HR-software en AI-tools altijd de kritische vraag: op wiens data is dit systeem getraind en welke groepen zijn ondervertegenwoordigd in het model?
Eis radicale transparantie van leveranciers. Vraag je huidige AI-leveranciers om harde data over bias-testen. Welke demografische groepen zijn getest en wat waren de foutmarges? Als een leverancier hier geen duidelijk antwoord op heeft, is dat een rode vlag. Test nieuwe tools ook altijd zelf uitvoerig voordat je ze bedrijfsbreed uitrolt.
Ontvang elke week het beste van BusinessWise in je mailbox. Schrijf je hier nu gratis in: