IT

Maartje Vennema: 'Beste OpenAI, Google en andere makers van taalmodellen'

Maartje Vennema. Foto: privé-archief Maartje Vennema Maartje Vennema. Foto: privé-archief Maartje Vennema
Maartje Vennema. Foto: privé-archief Maartje Vennema
Leestijd 4 minuten
Over de Expert:
maartje vennema
Maartje Vennema
Spreker, adviseur en trainer in data en AI

Beste OpenAI, Google en andere makers van taalmodellen,

Laat ik meteen het bommetje droppen: als we zo doorgaan, zie ik geen toekomst voor taalmodellen zoals GPT en Gemini zoals we die nu kennen. Niet omdat ik denk dat robots de wereld gaan overnemen, maar omdat de modellen stap voor stap van zichzelf gaan leren. Als Big Tech weten jullie wat ik bedoel, maar ik zal het toelichten.

Toen ChatGPT in 2022 werd gelanceerd, ontdekten we al snel dat het programma leerde van onze menselijke taal, met alle rommel die daarbij hoort. Kromme zinnen, irritatie in hoofdletters, spelfouten, emotie, sarcasme, inside jokes en woorden die alleen binnen een gezin of vriendengroep logisch zijn. Zo heeft het model geleerd dat we het altijd hebben over het weer, niet de weer, en wat het Nederlandse sentiment is over regen.

Lees ook: AI-race is door Gemini 3 veranderd: 'Klap in het gezicht voor OpenAI en ChatGPT'

Maar die situatie verandert snel. Steeds meer teksten die online verschijnen, zijn geschreven door taalmodellen. Blogs, reviews, social media posts, artikelen: we hebben het allemaal wel eens voorbij zien komen. Nieuwe modellen leren van bestaande content. Waar dat in 2022 nog leerde over content die mensen creëerden, leert het nu ook van content die taalmodellen zelf hebben gecreëerd.

Zie het als een kind uit groep 3 dat leert schrijven. Eerst leert het door tekst geschreven door een docent, later leert het van tekst die geschreven is door een ander kind uit groep 3. Dat kind kreeg ze weer van een ander, ga zo maar door.

Of stel je voor dat je jezelf vertelt dat gras paars is, en dat vervolgens als bewijs gebruikt om jezelf opnieuw te leren dat gras paars is. Het slaat nergens op, maar precies dit proces zie je nu bij modellen zoals GPT en Gemini.

Terwijl de algemene opinie zegt dat modellen steeds slimmer worden, vraag ik me af of deze modellen niet juist dommer worden zonder dat we het door hebben. Als je dat doordenkt, zie je dat modellen op twee manieren dommer kunnen worden.

Taal wordt vlakker wanneer modellen vooral leren van teksten die door andere modellen zijn geschreven. Alles schuift richting dezelfde toon: veilig, netjes en voorspelbaar. De scherpe randen verdwijnen en originele zinnen raken uit beeld. Tegelijk missen modellen alles wat bij echte communicatie hoort: lichaamstaal, stiltes, ongemak, sarcasme. Alles wat ze over emotie weten, komt uit tekst, en dat is beperkt. Hoofdletters en een boze toon kun je herkennen, maar de irrationele, onverwachte kant van menselijk gedrag? Daar komen modellen niet bij.

Lees ook: Hoe meer AI-content, hoe waardevoller echte stemmen

Daarnaast weten we bovendien dat een deel van de antwoorden van taalmodellen gewoon niet klopt. Soms verzonnen, soms misleidend, soms half waar. Dit zit nou eenmaal in de aard van het beestje. Die fouten worden vervolgens opnieuw gebruikt door taalmodellen om van te leren, omdat wij het de modellen voeren of omdat wij de content online zetten. Zo kom je in een cirkel terecht: verkeerde informatie voedt nieuwe verkeerde informatie. De betrouwbaarheid gaat omlaag zonder dat we het doorhebben. Wij kunnen taalmodellen instructies geven, maar we worden lamgelegd door het gemak, en de luiheid die ons wordt aangeboden. Waar we nu nog grapjes maken over mensen die Facebook als bron gebruiken, wordt ChatGPT soms als levenspartner ingezet.

De modellen zullen dommer en minder menselijk worden en wij hobbelen daar achteraan

Maartje Vennema

De modellen zullen dommer en minder menselijk worden en wij hobbelen daar achteraan. Kunnen wij als gewone gebruikers iets doen om te voorkomen dat taalmodellen trainen op hun eigen output? Nee, helaas niet. Kritisch blijven en jezelf opleiden in fundamentele AI-kennis is het enige wat helpt.

Beste OpenAI, Google en andere makers van taalmodellen: jullie weten dat dit op de lange termijn niet houdbaar is. Wat gaan jullie doen?

Met vriendelijke groet,

Maartje Vennema

P.S. Om te laten zien hoe waardevol menselijke diversiteit in AI is, heeft Mark van der Veen een eigen artikel geschreven waarin hij oproept tot meer menselijkheid in AI, dat artikel vind je hier.

Lees ook: Maartje Vennema: 'AI versnelt niets als je het niet begrijpt'

Ontvang elke week het beste van BusinessWise in je mailbox. Schrijf je hier nu gratis in: