In Den Haag en Brussel groeit de inzet voor digitale autonomie. Overheden, kennisinstellingen en bedrijven werken aan eigen chips, cloud en AI-systemen. Met de Europese AI-verordening en de gevolgen voor de overheid in zicht, worden regels en investeringen aangescherpt. Doel is minder afhankelijk te zijn van Amerikaanse en Aziatische leveranciers en meer controle te hebben over data.
Europa wil minder afhankelijk
Digitale autonomie betekent zelf kunnen kiezen en bouwen: van datacenters tot algoritmen. De behoefte groeit door geopolitieke spanningen en storingen in toeleveringsketens. Ook voor kunstmatige intelligentie is dit belangrijk, omdat training van datamodellen veel rekenkracht en gevoelige data vraagt.
De Europese Unie zet meerdere instrumenten in. De AI-verordening (AI Act), Data Act, Digital Markets Act en Digital Services Act vormen samen het juridische kader. Daarnaast investeert de EU in supercomputers via EuroHPC en in chipproductie met de Chips Act.
Voor ontwikkelaars van AI-modellen weegt toegang tot rekenkracht en data het zwaarst. Zonder eigen infrastructuur blijft Europa afhankelijk van buitenlandse spelers. Dat bemoeilijkt innovatie en publieke controle, vooral bij gevoelige toepassingen in zorg, onderwijs en overheid.
Chips en cloud knelpunt
De chipketen is een zwak punt. Europa is sterk in lithografie dankzij ASML in Veldhoven, maar zwak in productie en verpakking. Voor AI-versnellers is de markt nu grotendeels in handen van Nvidia en productie in Aziƫ.
In de cloud domineren AWS, Microsoft Azure en Google Cloud. Frankrijk en Duitsland bouwen ācloud de confianceā-varianten met strengere juridische en technische waarborgen. De Data Act moet overstappen tussen cloudproviders makkelijker maken vanaf 2025, om lock-in te verminderen.
Voor Nederland speelt de publieke sector een aparte rol. Onder de AVG en na het Schrems II-arrest gelden strenge eisen voor datadoorvoer buiten de EU. DPIAās op Microsoft 365 en Google-diensten hebben geleid tot extra afspraken over dataminimalisatie en versleuteling.
De Europese Chips Act mobiliseert 43 miljard euro aan publieke en private investeringen richting 2030.
AI Act bepaalt speelveld
De AI-verordening werkt met risicoklassen. Hoog-risico systemen, zoals algoritmen voor zorg, onderwijs of overheid, krijgen extra eisen voor data, documentatie en toezicht. Generieke modellen (foundation models) krijgen transparantieplichten; modellen met systemisch risico vallen onder zwaardere regels.
Voor overheden en bedrijven betekent dit meer voorbereiding en bewijsvoering. Conformiteitsbeoordelingen, incidentmeldingen en duidelijke gebruikersinformatie worden standaard. Dit raakt direct de vraag: wat zijn de Europese AI-verordening gevolgen overheid en hoe organiseer je dat praktisch?
De AI Act sluit aan op de AVG, met privacy-by-design en dataminimalisatie als basis. Toezichthouders krijgen test- en handhavingsbevoegdheden, onder meer via sandboxes. Op het moment van schrijven werken lidstaten aan nationale loketten en handhavingsplannen.
Nederland zoekt eigen opties
Nederland bouwt aan rekenkracht voor wetenschap en innovatie via SURF. De nationale supercomputer Snellius op het Amsterdam Science Park ondersteunt training en testen van datamodellen. NWO en SURF onderzoeken verdere uitbreiding en samenwerking met EuroHPC, zodat onderzoekers minder afhankelijk zijn van commerciƫle clouds.
Voor de overheid ligt de focus op inkoop en beveiliging. Het rijksbrede cloudbeleid koppelt functionaliteit aan risicoprofielen en encryptie-eisen. In Brussel loopt discussie over EUCS, een Europees cloud-keurmerk, inclusief mogelijke eisen rond immuniteit voor niet-EU-wetgeving.
Het bedrijfsleven zoekt naar Europese alternatieven. In AI-modellen zijn Europese spelers als Mistral (Frankrijk) en Aleph Alpha (Duitsland) actief met eigen systemen. In chips werkt het Eindhovense Axelera AI aan energiezuinige versnellers voor toepassingen aan de rand (edge).
Open modellen winnen terrein
Open modellen, zoals Mistral 7B en Mixtral 8x7B, zijn als gewogen versies beschikbaar om lokaal te draaien. Dat vergroot autonomie, omdat data de organisatie niet hoeft te verlaten. Het helpt ook bij AVG-naleving en specifieke aanpassing op Nederlandse taal en context.
Er zijn ook risicoās. Kwaliteit en veiligheid verschillen per model en dataset. De AI Act verplicht daarom tot duidelijke documentatie, evaluatie en gebruikersinformatie, ook bij open varianten.
Publieke instellingen verkennen open source voor transparantie en kostenbeheersing. In Nederland geldt vaker āopen, tenzijā bij software in de overheid. Voor AI betekent dit: bronbestanden, prompts en evaluaties publiek maken, waar dat veilig kan.
Energie en kosten remmen groei
AI-infrastructuur gebruikt veel stroom en koeling. Nederland kampt met netcongestie en strenge ruimtelijke regels voor datacenters. Dat maakt planning en schaalbaarheid lastig voor zowel publieke als private initiatieven.
Europa legt duurzaamheidseisen vast voor datacenters. De herziene Energy Efficiency Directive introduceert rapportageplichten over energiegebruik en restwarmte. Hergebruik van warmte en groene stroomcontracten worden randvoorwaarden voor nieuwe capaciteit.
Ook de kosten van GPUās en netwerkhardware blijven hoog. Leveringstijden lopen op door wereldwijde vraag. Delen van rekenkracht via publieke faciliteiten of sectorale samenwerkingen wordt daarom belangrijk om tempo te houden Ć©n kosten te drukken.
