IT

Waarom verbruiken AI-chatbots zoveel energie?

AI heeft ook gevolgen voor het energieverbruik wereldwijd. Foto: Dima Zel/Shutterstock Shutterstock
Shutterstock
Leestijd 4 minuten
Lees verder onder de advertentie

De afgelopen jaren is de populariteit van ChatGPT sterk toegenomen, met dagelijks bijna 200 miljoen gebruikers die gezamenlijk meer dan een miljard prompts invoeren. Maar achter de schermen verbruiken kunstmatige intelligentie (AI) chatbots een enorme hoeveelheid energie, schrijft Live Science. In 2023 waren datacenters, die gebruikt worden om AI-modellen te trainen en te draaien, verantwoordelijk voor 4,4 procent van het elektriciteitsverbruik in de Verenigde Staten. Wereldwijd dragen deze centra bij aan ongeveer 1,5 procent van het totale energieverbruik. Naar verwachting zullen deze aantallen explosief stijgen en tegen 2030 minstens verdubbelen, naarmate de vraag naar AI groeit.

Nu hebben we het over een technologie die verantwoordelijk zal zijn voor bijna de helft van het elektriciteitsverbruik van datacenters wereldwijd

Alex de Vries-Gao Vrije Universiteit Amsterdam

Bijna de helft van het elektriciteitsverbruik van datacenters wereldwijd

„Drie jaar geleden hadden we nog niet eens ChatGPT," zei Alex de Vries-Gao, onderzoeker duurzaamheid van opkomende technologie aan de Vrije Universiteit Amsterdam en oprichter van Digiconomist, een platform dat zich richt op het blootleggen van de onbedoelde gevolgen van digitale trends. „En nu hebben we het over een technologie die verantwoordelijk zal zijn voor bijna de helft van het elektriciteitsverbruik van datacenters wereldwijd."

Maar wat maakt AI-chatbots zo energie-intensief? Het antwoord ligt in de enorme schaal van AI-chatbots. Er zijn met name twee onderdelen van AI die de meeste energie verbruiken: training en 'inferentie' (de context bepalen), aldus Mosharaf Chowdhury, een computerwetenschapper aan de Universiteit van Michigan.

Lees verder onder de advertentie

Waarom kost de training van taalmodellen zoveel energie?

Om AI-chatbots te trainen, krijgen grote taalmodellen (LLM's) enorme datasets, zodat de AI kan leren, patronen kan herkennen en voorspellingen kan doen. Over het algemeen gelooft de Vries-Gao dat „groter beter is" bij AI-training, waarbij grotere modellen die meer gegevens verwerken betere voorspellingen doen.

„Dus wat er gebeurt als je probeert een training uit te voeren, is dat de modellen tegenwoordig zo groot zijn dat ze niet meer in een enkele GPU [grafische verwerkingseenheid] passen; ze passen niet meer in een enkele server," vertelde Chowdhury aan Live Science.

Om een idee te geven van de schaal: een enkele Nvidia DGX A100 server verbruikt tot 6,5 kilowatt aan stroom. Voor het trainen van een LLM zijn meestal meerdere servers nodig, elk met gemiddeld acht GPU's, die dan weken of maanden draaien. Alles bij elkaar verbruikt dit bergen energie: naar schatting heeft het trainen van OpenAI's GPT-4 50 gigawattuur aan energie verbruikt, wat gelijk staat aan San Francisco drie dagen lang van stroom voorzien.

Lees verder onder de advertentie

Lees ook: Predictive AI bespaart dit bedrijf honderden vierkante meters en tienduizenden euro's

Inferentie

Inferentie verbruikt ook veel energie. Hierbij trekt een AI-chatbot een conclusie uit wat hij heeft geleerd en genereert hij een output op basis van een verzoek. Hoewel er aanzienlijk minder rekenkracht nodig is om een LLM uit te voeren nadat deze is getraind, is inferentie energie-intensief vanwege het grote aantal verzoeken aan AI-chatbots.

Volgens OpenAI versturen gebruikers van ChatGPT dagelijks meer dan 2,5 miljard verzoeken. Dit betekent dat er meerdere servers nodig zijn om directe antwoorden op deze verzoeken te geven. Daarbij komt nog het grote gebruik van andere chatbots, zoals Google's Gemini. Vertegenwoordigers van Google hebben verklaard dat deze chatbot binnenkort de standaardoptie wordt bij Google Zoeken.

Lees verder onder de advertentie

„Dus zelfs bij inferentie kun je niet echt energie besparen," zei Chowdhury. „Het gaat niet echt om enorme hoeveelheden gegevens. Ik bedoel, het model is al enorm, maar we hebben een enorm aantal mensen die het gebruiken."

Een Energy Leaderboard

Onderzoekers zoals Chowdhury en de Vries-Gao werken nu aan een betere kwantificering van deze energiebehoeften om te begrijpen hoe ze kunnen worden verminderd. Chowdhury houdt bijvoorbeeld een ML Energy Leaderboard bij, waarin het energieverbruik van inferenties van open source modellen wordt bijgehouden.

De specifieke energiebehoeften van de andere generatieve AI-platforms zijn echter meestal onbekend; grote bedrijven zoals Google, Microsoft en Meta houden deze cijfers privé of verstrekken statistieken die weinig inzicht geven in de werkelijke impact van deze toepassingen op het milieu, aldus de Vries-Gao. Dit maakt het moeilijk om te bepalen hoeveel energie AI werkelijk verbruikt, wat de vraag naar energie de komende jaren zal zijn en of de wereld het kan bijbenen.

Lees verder onder de advertentie

Aandringen op meer transparatie

Mensen die deze chatbots gebruiken, kunnen echter aandringen op meer transparantie. Dit kan gebruikers niet alleen helpen bij het maken van meer energieverantwoorde keuzes bij hun eigen AI-gebruik, maar ook aandringen op een robuuster beleid dat bedrijven verantwoordelijk houdt.

„Een zeer fundamenteel probleem met digitale toepassingen is dat de impact nooit transparant is", aldus de Vries-Gao. „De bal ligt bij beleidsmakers om openbaarheid aan te moedigen."

Bron: Live Science

Lees verder onder de advertentie

Lees ook: 1,3 miljard AI-agents in 2028 en dat kan dit voor jou betekenen

Ontvang elke week het beste van BusinessWise in je mailbox. Schrijf je hier nu gratis in:

Lees verder onder de advertentie