- AI-bot ChatGPT krijg naar schatting 200 miljoen vragen per dag te verwerken, waarvoor het AI-model antwoorden moet ophoesten met behulp van zware databases.
- Het bijbehorende energieverbruik van naar schatting 500.000 kilowattuur per dag komt overeen met het gemiddelde dagverbruik van ruim 70.000 Nederlandse huishoudens.
- Het opschalen van zware AI-modellen zorgt voor enorme uitdagingen wat betreft het energieverbruik.
- Lees ook: Google kan bij de problemen met AI-bot Gemini hoop putten uit de wederopstanding van Apple Maps – maar de tijd dringt
AI-chatbots zijn razend populair en toepassingen van artificial intelligence dragen een grote belofte in zich. Maar die komt wel met een keerzijde: de zware databases waar AI-software gebruik van maakt vragen veel computerkracht en dat gaat gepaard met een hoog energieverbruik.
Zo krijgt AI-bot ChatGPT inmiddels naar schatting 200 miljoen vragen per dag te verwerken. Het ophoesten van antwoorden kost naar schatting zo’n 500.000 kilowattuur per dag, meldt The New Yorker.
Om dat te bevatten kun je het gemiddelde jaarverbruik van een Nederlands huishouden nemen, dat volgens Milieu Centraal op afgerond 2.500 kilowattuur ligt. Per dag komt dat neer op bijna 7 kilowattuur. Ofwel het dagverbruik van ChatGPT houdt gelijke tred met dat van ruim 70.000 Nederlandse huishoudens.
En we staan nog maar aan het begin van de AI-revolutie.
Als Google bijvoorbeeld generatieve AI zou integreren in elke zoekopdracht, zou de zoekmachinegigant ongeveer 29 miljard kilowattuur aan stroom per jaar verbruiken, volgens berekeningen van de Nederlandse datawetenschapper Alex de Vries, die in oktober vorig jaar een artikel publiceerde over het energieverbruik van AI in het wetenschappelijke tijdschrift Joule. "AI is gewoon heel energie-intensief," vertelde De Vries eerder aan Business Insider.
Toch is het moeilijk om in te schatten hoeveel elektriciteit de snelgroeiende AI-industrie precies verbruikt. Er is een aanzienlijk verschil in de opzet van diverse AI-modellen en Big Tech-bedrijven zijn bepaald niet scheutig met informatie over hun energieverbruik.
AI kan in 2027 goed zijn voor half procent van mondiaal stroomverbruik
In zijn artikel kwam De Vries echter met een ruwe berekening op basis van cijfers van chipfabrikant Nvidia - die in het middelpunt staat van de huidige AI-hype, omdat de grafische processoren van Nvidia bij uitstek geschikt zijn om de zware AI-modellen op te laten draaien.
De Vries schatte in dat tegen 2027 de hele AI-sector jaarlijks 85 tot 134 terawattuur zal verbruiken (1 terawattuur is een miljard kilowattuur). "Je hebt het over een aandeel van ongeveer een half procent van het wereldwijde stroomverbruik in 2027," vertelde de Vries aan technieuwssite The Verge. "Ik denk dat dat behoorlijk significant is."
Ter vergelijking kun je kijken naar het stroomverbruik van enkele van de grootste techbedrijven ter wereld. Samsung gebruikt bijvoorbeeld bijna 23 terawattuur aan stroom per jaar, terwijl Google en Microsoft respectievelijk iets meer dan 12 terawattuur en 10 terawattuur gebruiken voor datacenters, netwerken en apparaten van gebruikers, volgens de berekeningen die Business Insider maakt op basis van een rapport van Consumer Energy Solutions.