Techbedrijven en datacenters in Nederland en Europa rekenen op meer stroomverbruik door kunstmatige intelligentie. In 2026 blijft de vraag stijgen, aangejaagd door generatieve diensten zoals ChatGPT, Gemini en Copilot. Overheden en netbeheerders zoeken oplossingen, omdat het elektriciteitsnet al op veel plekken vol is. De Europese AI-verordening heeft gevolgen voor overheid en bedrijven, maar lost het energieprobleem niet vanzelf op.
AI-stroomvraag blijft stijgen
De uitrol van generatieve systemen versnelt het energieverbruik. ChatGPT van OpenAI, Google Gemini en Microsoft Copilot draaien op grote schaal in de cloud. Daardoor groeit vooral het aantal verzoeken van gebruikers, ook wel āinferenceā genoemd. Bedrijven bouwen deze functies in documenten, mail en klantenservice in, wat het gebruik verder opstuwt.
Datacenters passen hun infrastructuur aan voor AI-rekenclusters. Leveranciers bouwen met grafische chips zoals Nvidia H100 en H200, of AMD MI300, die veel stroom en koeling vragen. Racks krijgen hogere vermogensdichtheid en speciale voeding. Dat maakt planning, koeling en netaansluitingen lastiger.
Internationale analyses laten een sterke toename tot en met 2026 zien. Vooral het draaien van modellen in productie kost veel uren en dus energie. Efficiƫntere chips en software helpen, maar compenseren de vraaggroei niet volledig. De trend blijft dus omhoog, ook in Europa.
De stroomvraag van AI-toepassingen kan in 2026 een veelvoud zijn van 2023, door snelle groei van generatieve diensten.
Training kost veel vermogen
Het trainen van grote modellen vergt geconcentreerde pieken aan rekenkracht. Modellen in de klasse van GPT-4 en Gemini 1.5 gebruiken duizenden chips tegelijk. Dat zijn korte maar zeer intensieve perioden. Daarna volgt een lange fase met dagelijks gebruik door miljoenen gebruikers.
Het draaien van antwoorden voor gebruikers, de inference, loopt 24 uur per dag door. Daardoor wordt het totale energieverbruik vooral door gebruik bepaald. Metaās Llama-modellen en bedrijfsbots in sectoren zoals zorg en retail versterken dat patroon. Het aantal verzoeken groeit sneller dan de efficiĆ«ntie.
EfficiĆ«ntiemaatregelen winnen wel terrein. Kleinere en āquantizedā modellen vergen minder rekenwerk per antwoord. Slimme technieken zoals āretrievalā beperken onnodige berekeningen. Toch blijft het totaal stijgen, omdat meer processen en diensten AI inschakelen.
Europese netten onder druk
In Nederland speelt netcongestie, vooral in regioās met veel datacenters. Rond Amsterdam, Middenmeer (Agriport A7) en de Eemshaven is de ruimte op het net beperkt. Netbeheerders zoals TenneT en Liander waarschuwen voor lange wachtrijen voor nieuwe aansluitingen. AI-rijke workloads vergroten die druk.
Het kabinet staat hyperscale datacenters alleen toe in aangewezen clusters met strenge voorwaarden. Voorwaarden gaan over energie-efficiƫntie, restwarmte, piekbelasting en landschappelijke inpassing. Google en Microsoft zijn al actief in de twee Nederlandse clusters. Nieuwe AI-plannen zullen aan deze kaders moeten voldoen.
Koeling en watergebruik tellen ook mee in de vergunning. Warmte-terugwinning voor stadswarmte wordt vaker verplicht of gestimuleerd. Stuwmeer aan restwarmte kan de energierekening in de wijk verlagen. Maar daarvoor is infrastructuur nodig die nog niet overal ligt.
Wetgeving zet nieuwe kaders
Vanaf 2024 moeten grote Europese datacenters energie- en watercijfers rapporteren onder de herziene Energie-efficiƫntierichtlijn. Dit omvat onder meer stroomverbruik, koeling en de efficiƫntiemaat PUE. PUE is een simpele verhouding tussen totale datacenterstroom en de stroom voor IT-apparatuur. De cijfers komen in een Europese database en verhogen de transparantie.
De Corporate Sustainability Reporting Directive (CSRD) vergroot de druk op bedrijven om emissies en energiegebruik te tonen. Dat raakt ook AI-diensten van Microsoft Azure, Google Cloud en Amazon Web Services. Overheden die AI inkopen kunnen hierdoor strenger sturen op āgroeneā eisen. Dat maakt energieprestaties een concurrentiefactor.
De Europese AI-verordening legt bovendien extra plichten op aan aanbieders van algemene AI-modellen. Zij moeten informatie geven over onder meer rekenkracht, energiegebruik en milieueffecten van het trainen, op het moment van schrijven in hoofdlijnen vastgelegd. Dit ondersteunt toezicht en publieke inkoop. Voor overheden betekent dit betere basisinformatie bij aanbestedingen.
Bedrijven sturen op efficiƫntie
Cloudbedrijven sluiten meer langjarige contracten voor wind- en zonnestroom in Europa. Microsoft, Google en Amazon investeren in 24/7-stroommatching, ook in Nederland en de Noordzee-regio. Dat vermindert de CO2-voetafdruk per berekening. Het neemt de vraagpiek echter niet weg.
Technisch versnellen drie sporen: snellere maar zuinigere chips, software-optimalisatie en slimmere koeling. Vloeistofkoeling en warmtepompen verlagen energieverlies. Slim plannen van AI-taken naar uren met veel wind of zon helpt het net. Bedrijven testen ook āpower cappingā om pieken te dempen.
Gebruikers kunnen zelf kiezen voor efficiƫntere modellen en instellingen. Een Llama-variant met lagere precisie kan genoeg zijn voor een simpele takenreeks. On-device of edge-inference scheelt datacenterstroom en latency. Voor de overheid is dit een praktisch gevolg van de Europese AI-verordening: gevolgen voor beleid, inkoop en architectuur tellen nu direct mee.
