Nederlandse experts en bestuurders pleiten voor meer publieke regie op kunstmatige intelligentie. Zij willen dat de ontwikkeling niet vooral wordt gestuurd door grote techbedrijven en hun miljardairs-investeerders. De discussie speelt in Den Haag en Brussel, op het moment dat de Europese AI-verordening ingaat en gevolgen heeft voor overheid en bedrijven. Doel is om veiligheid, transparantie en publieke waarden beter te borgen.
Publieke regie op AI nodig
Publieke regie betekent dat overheid en kennisinstellingen richting geven aan ontwerp, data en toezicht van algoritmen. Dat kan via eigen onderzoeksprogrammaās, open datasets en onafhankelijke testfaciliteiten. Zo blijft de samenleving minder afhankelijk van commerciĆ«le keuzes van OpenAI, Google en Meta. Ook wordt het makkelijker om eisen als privacy en veiligheid af te dwingen.
De Nederlandse kennisinfrastructuur biedt hiervoor aanknopingspunten. SURF levert reken- en datadiensten aan universiteiten, en kan die functies uitbreiden voor AI-onderzoek. Samenwerking met TNO en hogescholen kan zorgen voor praktijkproeven in zorg, onderwijs en overheid. Daarmee ontstaat een keten van idee tot toepassing die niet volledig in private handen ligt.
Publieke regie staat innovatie niet in de weg, maar stuurt die richting maatschappelijke doelen. Denk aan taalmodellen voor de rechtspraak of toegankelijkheidsoplossingen in het openbaar vervoer. Zulke systemen vragen strikte dataminimalisatie en versleuteling om aan de AVG te voldoen. Een publieke aanpak kan die eisen vanaf het ontwerp inbouwen.
Publieke regie betekent: de overheid bepaalt richting, voorwaarden en toetsing van AI, niet uitsluitend de markt.
Macht bij Big Tech groeit
De ontwikkeling van generatieve AI, software die zelfstandig tekst en beeld maakt, ligt nu vooral bij Amerikaanse platforms. OpenAI (GPT-4 en GPT-4o), Google (Gemini) en Meta (Llama) bepalen tempo en toegang. Zij bezitten de rekenkracht, trainingsdata en distributiekanalen. Europese gebruikers en overheden zitten daardoor vaak aan de zijlijn.
Ook nieuwe spelers worden gefinancierd door techmiljardairs en durfkapitaal. Anthropic en xAI bouwen grote taalmodellen met vergelijkbare afhankelijkheden. Deze concentratie brengt risicoās voor transparantie en continuĆÆteit. Licentievoorwaarden kunnen plots veranderen, of functies verdwijnen achter hogere prijzen.
Europa kent wel tegenkrachten, maar die zijn kleiner van schaal. Start-ups als Mistral AI en Aleph Alpha werken aan open modellen en Europese alternatieven. Hun budgetten en toegang tot chips zijn echter beperkt. Zonder publiek beleid blijft het speelveld ongelijk.
AI-verordening dwingt keuzes
De Europese AI-verordening (AI Act) geldt op het moment van schrijven gefaseerd. De wet hanteert risicoklassen: van verboden toepassingen tot hoog-risico-systemen met strenge eisen. Generatieve modellen moeten duidelijk maken dat content door AI is gemaakt en relevante documentatie bieden. Voor krachtige generieke modellen gelden extra verplichtingen rond veiligheidstesten en transparantie.
Voor Nederlandse overheden heeft dit directe gevolgen. Inkoop van AI-diensten vraagt voortaan om technische documentatie, dataherkomst en uitleg over prestaties en fouten. Een gegevensbeschermingseffectbeoordeling (DPIA) onder de AVG blijft verplicht wanneer persoonsgegevens worden verwerkt. Zonder publieke regie wordt naleving van deze regels moeilijker af te dwingen bij buitenlandse leveranciers.
Toezichthouders gaan een zwaardere rol spelen. Het Europees ComitƩ voor gegevensbescherming (EDPB) en nationale autoriteiten zullen toezien op dataminimalisatie en beveiliging. Voor hoog-risico-toepassingen zijn menselijke controle en robuuste logboeken vereist. Dit vergt investeringen in kennis en testcapaciliteiten binnen de publieke sector.
Investeer in publieke infrastructuur
Toegang tot rekenkracht is cruciaal voor moderne datamodellen. De EU ontwikkelt via EuroHPC gezamenlijke supercomputers, zoals LUMI en Leonardo. De Europese Commissie werkt daarnaast aan zogeheten AI-fabrieken: faciliteiten die start-ups en onderzoekers helpen met training, data en evaluatie. Nederland kan hierop aansluiten met SURF en nationale testlabs.
Open, goed gedocumenteerde datasets zijn net zo belangrijk als chips. Datapakketten voor het Nederlands, gebarentaal en publieke dienstverlening kunnen onder licentie beschikbaar komen. Daarbij horen strikte waarborgen voor privacy, zoals anonimisering en duidelijke doelbinding. Zo blijven AVG-eisen leidend, ook bij innovatie.
Evaluatie en veiligheidstesten moeten standaard worden. Onafhankelijke benchmarks en rode-teamaanpakken helpen misbruik en bias vroeg te vinden. Resultaten horen openbaar te zijn, zodat wetenschappers en toezichthouders kunnen controleren. Dit versterkt vertrouwen en maakt publieke inkoop transparanter.
Open modellen met waarborgen
Open modellen maken audit en aanpassing makkelijker voor Europa. Llama van Meta en modellen van Mistral AI tonen dat open gewichten samenwerking versnellen. Overheden kunnen eigen varianten bouwen, afgestemd op wet- en regelgeving. Dat verkleint de afhankelijkheid van gesloten platformen.
Openheid vraagt wel heldere grenzen. Herleidbare trainingsdata, beleid tegen misbruik en watermerken voor AI-content zijn nodig. De AI-verordening stuurt op documentatie en transparantie, wat goed past bij open ontwikkeling. Zo ontstaat een balans tussen innovatie en zorgplicht.
Ook licenties verdienen aandacht. Toestemming voor overheidsgebruik, beveiligingseisen en auditrechten moeten expliciet zijn. Met standaardclausules kunnen ministeries en gemeenten sneller en veiliger inkopen. Dit voorkomt verrassingen bij updates of commerciƫle overnames.
Wat Nederland nu kan doen
Stel een publiek programma op voor maatschappelijke AI, met budget voor onderzoek, datasets en evaluatie. Maak inkoopnormen die modelkaarten, brondata-inzicht en beveiliging verplichten. Organiseer een landelijk register voor hoog-risico-systemen in overheid en publieke dienstverlening. Dit helpt toezicht en maakt beleid toetsbaar.
Investeer in vaardigheden van ambtenaren en toezichthouders. Training in AVG, de AI-verordening en veilig modelgebruik voorkomt fouten. Werk samen met universiteiten en het MKB voor praktijkproeven in zorg, onderwijs en mobiliteit. Koppel hieraan duidelijke exitplannen bij leveranciersafhankelijkheid.
Sluit aan bij Europese infrastructuren en standaarden. Gebruik EuroHPC-capaciteit en Europese testtools waar mogelijk. Deel resultaten en benchmarks open, zodat anderen kunnen verbeteren. Zo blijft de ontwikkeling van AI niet alleen een zaak van commercie en techmiljardairs, maar van de hele samenleving.
