Het trainen van Artificiële Intelligentie (AI) vergt enorm veel stroom. Daarmee is de opkomst van AI meteen een bedreiging voor het klimaat, vanwege de grote CO2-voetafdruk. Nu al slurpen datacentra zo'n drie procent van alle elektriciteit wereldwijd op en één procent van de CO2-uitstoot komt van diezelfde datacentra. Dat is de helft van wat de luchtvaartsector uitstoot. Wetenschappers willen AI groener maken.
Er waren al zorgen dat AI tot het einde van de wereld zou kunnen leiden, maar nu is er dus nog een grote zorg: de hoeveelheid elektriciteit die de systemen kosten. Slimmere computers gebruiken meer data en meer data betekenen meer stroom. Door de enorme populariteit van AI-systemen nemen de zorgen alleen maar toe. "Dit is echt heel ernstig en zorgelijk", zeggen experts.
'Doe het licht uit'
Neem Alexa. Voordat je de spraak gestuurde huishoudelijke hulp van het Amerikaanse Amazon kan vragen: "Alexa, doe het licht uit", zijn er heel wat stappen gezet. Een uurtje video streamen is hetzelfde als een week de ijskast aan. "Je denkt dat je een klein lief apparaatje aanschaft dat in je zitkamer staat, maar het achterland is gigantisch met een enorm energieverbruik", zegt Chris Julien van het Amsterdamse onderzoeksinstituut Waag Futurelab.
Bij Waag Futurelab deden ze ooit onderzoek naar de anatomie van het menselijk lichaam. Nu is er een tentoonstellingsruimte met de anatomie van AI. Het is een wereld vol stroomverbruik.
Ook het baanbrekende computerprogramma ChatGPT, dat levensechte gesprekken kan voeren, gebruikt een enorme hoeveelheid stroom: één enkele trainingssessie van ChatGPT betekent zo'n 500 ton CO2-uitstoot. Dat is gelijk aan duizend auto's die duizend kilometer rijden.
Luis Cruz houdt zich aan de TU-Delft bezig met het groener maken van AI. Hij en zijn team willen systemen ontwikkelen die hetzelfde resultaat vinden - het beste antwoord voor de consument - maar met minder energie. Dat betekent zoeken naar dezelfde speld, maar in een kleinere data-hooiberg. "Met een andere methode kwamen we al tot 30 tot 40 procent minder energieverbruik bij de training van ChatGPT. We gaan de goede kant op, al is het een druppel in de oceaan. Maar met veel druppels, komen we er uiteindelijk."
Algoritme
In Amsterdam probeert Sander Bohté het op een andere manier. Hij werkt aan een chip die werkt zoals onze hersenen. Die chip is twintig keer zuiniger en kan meer. "Het is fantastisch hoe energiezuinig ons brein is, net een kleine gloeilamp. Die energiezuinigheid van hersenen proberen we in een algoritme te vangen en op een chip te zetten. Zo kan de chip energie besparen."
Het uiteindelijke doel is dat er geen datacentra meer nodig zijn. "Dat we spraakherkenning, het herkennen van plaatjes tot begrijpen wat je geschreven wilt hebben, niet meer naar een datacentrum gaan. Dat we die enorme datacentra via een algoritme op een kleine chip krijgen", zegt Bohté. "Ik denk dat je zo'n kleine, energiezuinige chip over 1 a 2 jaar al zal terugvinden in het speelgoed. Nederland loopt daarin echt voorop."
Zuinigere AI-systemen met minder impact op het klimaat zijn beter, maar eerst is er nog een andere belangrijke vraag, zegt Chris Julien, die ook de ethische kant van AI onderzoekt. "Waar optimaliseren we nu voor? Energie-efficiëntie is natuurlijk super, maar als het alleen maar gaat om de juiste advertenties op je sociale media voorgeschoteld krijgen, dan moet je je afvragen of we daar mee door moeten gaan. Of het nuttig is om daar zoveel energie en tijd in te stoppen."
"We kunnen niet alle energie in kattenfilmpjes steken", zegt ook wetenschapper Bohté. En onderzoeker Cruz hoopt dat hij met zijn onderzoek bijdraagt aan het bewustzijn over de klimaatimpact. "Dat als mensen de CO2-uitstoot zien, ze wel twee keer nadenken als ze een zoekterm invoeren op Google of een computer een opdracht geven. Dat zou al energie besparen. En waarom eigenlijk niet zelf het licht uitdoen?"