Persoonlijke ontwikkeling

Martijn Aslander: ‘AI is dom en onbetrouwbaar. Wij ook, maar dan anders’

Martijn Aslander, onder meer stand up filosoof. Martijn Aslander: ‘Wat me al maanden opvalt, is het gemak waarmee mensen voor wie ik veel respect heb, AI wegzetten als volstrekt onbetrouwbaar en dom’. Foto: Seats2Meet.
Martijn Aslander: ‘Wat me al maanden opvalt, is het gemak waarmee mensen voor wie ik veel respect heb, AI wegzetten als volstrekt onbetrouwbaar en dom’. Foto: Seats2Meet.
Leestijd 4 minuten
Over de Expert:
martijn aslander
Martijn Aslander
Spreker, technologie-filosoof en oprichter van Digitale Fitheid

Ik kwam een oud boekje tegen over hoe mensen denken: ‘How We Know What Isn’t So’ van Thomas Gilovich, psycholoog aan Cornell, uit 1991. Voor wie bekend is met het werk van Kahneman of met hoe Genieke Hertoghs dat vertaalt in haar boek ‘Don’t push me’, is dit geen onbekend terrein.

Tijdens het lezen schoot me iets te binnen. Het boek gaat over menselijke biases. Om de een of andere reden moest ik denken aan wat journalisten en columnisten over AI schrijven. AI is een voorspellingsmachine, en dom en onbetrouwbaar. Althans, zo luidt een deel van het narratief. Maar is de mens in wezen ook niet een voorspellingsmachine die gaten opvult en gokt?

Menselijke biases en de valkuil van patroonherkenning

Volgens Gilovich ziet ons brein regelmatig patronen die er niet zijn. Zo worden we bevestigd in wat we al denken te weten. En omringen we ons doorgaans met mensen en bronnen die ons gelijk geven. Bij conclusies die we willen geloven zijn we minder kritisch naar onszelf dan bij conclusies die we liever vermijden. Dat verschil is zo klein dat je het bij jezelf zelden kunt waarnemen.

Ik vermoed dat ik enkele biases heb gevonden in hoe wij ons druk maken over AI. Niet de zorgen over werkgelegenheid of de macht van techbedrijven, dat zijn legitieme vragen. Maar wel de kritiek dat AI dom is, niets begrijpt en volkomen onbetrouwbaar zou zijn.

Lees ook - Martijn Aslander: hoe geef je AI toegang tot je eigen data zonder dat het bij techpartijen komt?

Waarom we strenger oordelen over AI dan over onszelf

Mensen zijn op hun manier ook dom en onbetrouwbaar, en eveneens voorspellingsmachines. Kahneman liet zien dat ons brein grotendeels op de automatische piloot werkt, via een snel, intuïtief systeem dat patronen herkent voordat we er bewust over nadenken. Wat wij bewuste redenering noemen is grotendeels rationalisatie achteraf. Zo stellen artsen diagnoses op gevoel, terwijl algoritmen hen op specifieke taken aantoonbaar verslaan, en zijn rechters soepeler met vrijlating vlak na de lunch dan aan het einde van een lange zittingsdag. Maar als AI hetzelfde doet, oordelen we hard.

In tegenstelling tot veel mensen heeft AI geen last van een ego en niets te verliezen bij een onwelgevallige conclusie. AI claimt niet te begrijpen. De mens wel, en dat is precies het probleem. De scherpste kritiek op AI komt doorgaans van mensen voor wie taal en redeneren het vak is. David Epstein laat in ‘Waarom generalisten verder komen’ zien waarom dat logisch is: wie diep in één domein zit, ziet de wereld vooral vanuit dat domein. Gilovich beschrijft wat er dan gebeurt: we verschuiven ongemerkt de lat, net zolang tot de conclusie klopt die we al hadden.

De reflex van gevestigde professionals en de specialistische bias

Clay Shirky laat in ‘Here Comes Everybody’ zien dat gevestigde professionals bij elke grote technologische verschuiving dezelfde reflex hebben: niet ‘wat kunnen we hiermee?’ maar ‘wat gebeurt er dan met ons?’ Al sinds de drukpers was dat zo, eeuwen later bij de fotografie en bij het internet. En nu dus weer.

Wat me al maanden opvalt, is het gemak waarmee mensen voor wie ik veel respect heb AI wegzetten als volstrekt onbetrouwbaar en dom. Ik vermoed dat veel van die mensen niet verder zijn gekomen dan af en toe een prompt intypen in een chatbot. Af en toe een prompt intypen en dan concluderen dat AI onbetrouwbaar is, zegt vooral iets over de verwachting waarmee je begint.

Lees ook - Productiviteitsagenda moet overheid miljarden opleveren, maar Martijn Aslander vindt: kan de prullenbak in

De Wet van Kasparov: het belang van het juiste AI-proces

Wat ik al maanden zélf ervaar komt veel dichter in de buurt van wat Garry Kasparov beschreef: menselijke intuïtie, gekoppeld aan rekenkracht en een goed proces. En in dat laatste heb ik inmiddels meer dan duizend uur geïnvesteerd.

Kasparov verloor in 1997 van Deep Blue en trok daar uiteindelijk een conclusie uit die de meeste mensen niet verwachtten. Ter onderbouwing verwees hij naar een freestyle schaaktoernooi in 2005, waarbij spelers mochten samenwerken met computers. De verwachting was dat grootmeesters met de krachtigste machines zouden winnen, maar dat liep totaal anders. Twee Amerikaanse amateurs met drie gewone computers versloegen met gemak de schaakgrootmeesters. Niet omdat ze beter schaakten, maar omdat ze beter waren in het aansturen van hun computers.

Kasparov noemde zijn conclusie later de Wet van Kasparov: een zwakke mens met een machine en een beter proces wint het van een sterke computer alleen, en zelfs van een sterke mens met een machine en een slecht proces.

Er zitten biases in AI ingebakken, via trainingsdata en de keuzes van de mensen die het hebben gebouwd, maar dat is een ander soort probleem. Bij AI-bias kun je de oorzaak vaak wel aanwijzen. Maar bij de biases die Gilovich beschrijft weten mensen zelf vaak niet eens dat er iets aan te wijzen valt, laat staan dat ze bereid zijn dat toe te geven.

Ontvang elke week - op maandag - het beste van BusinessWise in je mailbox. Schrijf je hier nu gratis in en maak kans op een Apple Watch!