opinie

Artificiële intelligentie vreet te veel energie

Artificiële intelligentie kan een hond van een kat onderscheiden, maar heeft daar miljarden berekeningen voor nodig. Het energieverbruik wordt onderschat. Ons brein is veel energiezuiniger. We hebben zuinigere AI-systemen nodig, net als een energielabel voor die systemen.

Artificiële intelligentie (AI) komt aan een duizelingwekkende snelheid ons dagelijks leven binnen. Die steile opgang dankt ze in de eerste plaats aan onze exponentieel toenemende rekenkracht. AI is namelijk afhankelijk van de verwerking van enorme hoeveelheden data, waarvoor miljarden bewerkingen nodig zijn. Als we beroep doen op het aanbevelingsalgoritme van onze favoriete streamingdienst, staan we er niet bij stil welk gigantisch energieverbruik daarachter schuilt. Een aanzienlijk deel wordt nog steeds opgewekt door fossiele energiebronnen. De populariteit van AI-toepassingen heeft dus ook een keerzijde.

Axel Nackaerts. ©rv

Om de totale voetafdruk van AI goed te kunnen inschatten, moeten we de hele levenscyclus in beschouwing nemen. Die begint bij de leerfase: om een AI-model te trainen worden steeds grotere datasets gebruikt, die steeds meer berekeningen vragen. De training van een AI-model voor taalverwerking brengt een CO2-uitstoot met zich mee die overeenkomt met die van vijf auto's gedurende hun gehele levensduur - inclusief de bouw. En dan kennen we nog niet eens het verbruik van de (niet-vrijgegeven) AI-modellen die de techgiganten ontwikkelen.

Telkens je een vraag stelt aan een voice assistant, komt een aantal gram CO2 vrij.

Het leerproces is nog maar de eerste stap. Na de training is het AI-model klaar voor de echte wereld. Het kan op zoek gaan naar patronen in nieuwe gegevens. Dat proces, ‘inferentie' genaamd, verbruikt nog meer energie. In tegenstelling tot de leerfase is inferentie geen eenmalige activiteit. Telkens je een vraag stelt aan een voice assistant, komt er een aantal gram CO2 vrij. Vanaf ongeveer een miljoen inferenties wordt de impact groter dan die van de leerfase.

Mieke De Ketelaere.

Vandaag gebeurt het gros van die berekeningen op energieslurpende processoren in datacenters. Er wordt niet alleen energie verbruikt om te rekenen, maar ook voor koeling en om de data heen en terug te sturen. Dat roept de vraag op: kunnen we de inferentie niet rechtstreeks uitvoeren op het apparaat dat de data verzamelt? Daarmee besparen we niet alleen energie, maar ook tijd, wat sowieso van levensbelang wordt in zelfrijdende auto’s. Door de data decentraal te verwerken hebben we geen internetverbinding meer nodig om AI-toepassingen te gebruiken. Onze privacy zou daar wel bij varen. Als je persoonlijke gegevens nooit je telefoon verlaten, kan niemand ze onderscheppen. Dus waarom voeren we die berekeningen nog niet massaal uit op het toestel dat de data verzamelt?

Squashen

Energie-efficiëntie is het probleem. De processoren in datacenters waarop zware AI-toepassingen draaien, zijn nooit ontworpen om energiezuinig te zijn. Als we dergelijke processoren in ons toestel staken, zouden we de batterij om de haverklap moeten opladen. Om de energie-efficiëntie drastisch te verhogen richt het wetenschappelijk onderzoek zich de jongste jaren op de ontwikkeling van volledig nieuwe hardwarearchitectuur. Deze zomer demonstreerde imec een Analoge Inferentie Accelerator die 2.900 biljoen bewerkingen per Joule haalt. Hij rekent daarmee tien tot honderd keer energiezuiniger dan de huidige chips. Daarmee wordt het mogelijk de inferentie volledig lokaal uit te voeren.

Met een geïntegreerde aanpak die de innovaties in dataverbruik, hardware en software op elkaar afstemt, kunnen we hyperefficiënte AI-systemen ontwikkelen.

De ontwikkeling van energie-efficiënte hardware is maar één kant van het verhaal. Draai er inefficiënte software op, en de energiewinst van de hardware verdwijnt als sneeuw voor de zon. Daarom is het evenzeer belangrijk dat we algoritmes ontwerpen die tegelijk nauwkeurig en energiebesparend zijn. We kunnen ons laten inspireren door onze eigen natuur. Voor een goede tennisser is het maar een kleine stap om ook te leren squashen. Op dezelfde manier hoeven we ook het leerproces van AI-algoritmen niet steeds vanaf nul op te starten, maar kunnen we de al vergaarde kennis naar een ander domein overdragen. Na het leerproces kunnen we het aantal berekeningen verder beperken door alle parameters die weinig invloed hebben op het eindresultaat weg te snoeien. Wat overblijft is een algoritme dat even nauwkeurig is, maar wel kleiner, sneller en energiezuiniger.

Energielabels voor wasmachines, wagens en woningen hebben de markten aangezet meer te investeren in energie-efficiëntie. Hoog tijd om een energielabel voor artificiële intelligentie op de agenda te zetten.

Door verschillende softwaretechnieken te combineren kunnen we meer dan 90 procent van de energie terugwinnen - los van de hardware waarop we de berekeningen uitvoeren. We kunnen de efficiëntie nog verder verbeteren door de algoritmen aan te passen aan de specificiteit van de hardware. De echte winst zit in de co-optimalisatie. Met een geïntegreerde aanpak die de innovaties in dataverbruik, hardware en software op elkaar afstemt, kunnen we hyperefficiënte AI-systemen ontwikkelen.

Dergelijke innovaties vinden nog veel te weinig hun weg naar andere domeinen van de samenleving. De consument kan al helemaal niet achterhalen hoe groen de AI-systemen zijn die hij elke dag gebruikt. In het verleden heeft Europa energielabels ingevoerd voor wasmachines, wagens en woningen. Dat heeft de markten aangezet meer te investeren in energie-efficiëntie. Hoog tijd om een energielabel voor artificiële intelligentie op de agenda te zetten.

Axel Nackaerts

Programmamanager AI bij imec

Mieke De Ketelaere

Programmadirecteur AI bij imec en auteur van ‘Mens versus Machine: artificiële intelligentie ontrafeld’

Lees verder

Gesponsorde inhoud

Gesponsorde inhoud