In Nederland groeit de kritiek op het toekomstplan dat is verbonden aan het ‘Rapport Wennink’. Deskundigen en politici spreken deze week van “spookcijfers” en vragen om onafhankelijke controle. Het plan, waar voormalig ASML-topman Peter Wennink op het moment van schrijven aan is verbonden, moet de economie en technologie versterken. De discussie raakt ook de Europese AI-verordening en de gevolgen voor overheid en investeringen.
Onderbouwing mist transparantie
Kern van de kritiek is dat het rapport ambitieuze doelen koppelt aan cijfers zonder duidelijke bron of methode. Het gaat om voorspellingen over groei, banen en productiviteit door chips en kunstmatige intelligentie. Zonder open rekenregels is niet te toetsen hoe realistisch die projecties zijn. Dat maakt beleid kwetsbaar, zeker als er miljarden aan publieke middelen mee gemoeid zijn.
Critici wijzen erop dat het rapport selectief lijkt in aannames. Positieve effecten van algoritmen worden benadrukt, terwijl kosten, risico’s en doorlooptijden onderbelicht blijven. Ook ontbreken soms scenario’s waarin technologische verwachtingen tegenvallen. Een goed toekomstplan laat verschillende paden zien en maakt onzekerheden zichtbaar.
Transparantie is hierbij een basisvoorwaarde. Publicatie van datasets, aannames en gebruikte modellen helpt beleidsmakers en burgers om de onderbouwing te beoordelen. Zonder die openheid ontstaat het risico dat politieke keuzes drijven op marketingtaal in plaats van op controleerbare feiten.
Grote inzet op chips en AI
Het toekomstplan zet zwaar in op halfgeleiders en kunstmatige intelligentie, met ASML en toeleveranciers als zwaartepunt. Verwachte winsten komen vooral uit automatisering, datamodellen en software in industrie en overheid. Zulke effecten bestaan, maar zijn sterk afhankelijk van implementatie, opleiding en regelgeving. Zonder die randvoorwaarden lopen opbrengsten vaak achter op beloftes.
Op Europees niveau speelt tegelijk de EU Chips Act, die moet zorgen voor meer chipproductie in Europa. Dat kan kansen bieden voor Nederlandse maakindustrie en onderzoek. Maar het vergt ook grote investeringen in energie, infrastructuur en personeel. Die kosten moeten in elk betrouwbaar groeiscenario helder worden meegerekend.
Ook AI-opschaling vraagt concreet planwerk. Welke systemen worden ingezet, met welke data en voor welke taken? En hoe worden fouten, bias en beveiliging aangepakt? Zonder antwoorden op die praktische vragen zijn macroprojecties over AI-productiviteit vooral rekenwerk op papier.
Vraag om onafhankelijke toets
In Den Haag klinkt nu de roep om een onafhankelijke doorrekening door het Centraal Planbureau of een vergelijkbare instantie. Zo’n toets kan de aannames, methoden en gevoeligheden van het rapport objectief doorlichten. Dat is extra belangrijk omdat het plan invloed kan hebben op begrotingen, ruimtelijke keuzes en onderwijsbeleid. Openbaarheid van bronnen en code maakt die toets beter en sneller.
Gaat het om data uit bedrijven of publieke diensten, dan geldt de AVG. Die wet eist dataminimalisatie, duidelijke doelen en goede beveiliging. Als de overheid AI-systemen inzet die uit het plan voortkomen, kan de Europese AI-verordening (AI Act) bovendien een hoge risicoklasse toewijzen. Dat brengt verplichte risicobeoordelingen, documentatie en menselijk toezicht mee.
Spookcijfers zijn cijfers zonder controleerbare bron, methode of context. Ze klinken overtuigend, maar zijn niet te verifiëren.
Belang voor regio’s en burgers
De inzet op chips en AI raakt meerdere regio’s, van Brainport Eindhoven tot universiteiten in de Randstad en daarbuiten. Het gaat om keuzes over woningbouw, openbaar vervoer en energie-infrastructuur. Zonder realistische planning kunnen bottlenecks, zoals netcongestie en personeelstekorten, de uitvoering vertragen. Dan vallen economische effecten lager uit dan voorspeld.
Voor burgers telt ook de kwaliteit van publieke diensten die met algoritmes worden vernieuwd. Denk aan zorgplanning, mobiliteit en onderwijs. Hier verplicht de AI-verordening tot transparantie en controleerbaarheid, zeker bij systemen met grote impact. Dat moet voorkomen dat kwetsbare groepen nadeel ondervinden van gebrekkige data of foutgevoelige modellen.
Het onderwijs is een tweede pijler. Productiviteitswinst door AI blijft uit als personeel niet is bijgeschoold of als tools niet passen bij het werk. Een toekomstplan hoort daarom investeringen in mensen net zo concreet te maken als investeringen in machines en datacentra.
Politieke timing beïnvloedt debat
De timing is gevoelig omdat budgetten en coalitieafspraken voor de komende jaren worden vastgelegd. Het Nationaal Groeifonds en andere fondsen staan onder vergrootglas na eerdere discussies over toetsing en meetbare resultaten. Beleidsmakers willen voorkomen dat nieuwe projecten starten op basis van onzekere ramingen. Dat verklaart de nadruk op verifiëren en faseren.
Een gefaseerde aanpak kan helpen: eerst pilots met duidelijke meetpunten, daarna opschalen bij bewezen effect. Zo worden risico’s beheersbaar en blijven kosten in de hand. Deze werkwijze past ook bij de AI-verordening, die vraagt om continue monitoring van hoogrisicosystemen. Politiek en uitvoering schuiven dan in hetzelfde ritme op.
Heldere governance is hierbij cruciaal. Wie is verantwoordelijk voor resultaten, wie voor dataveiligheid, en wie voor maatschappelijke effecten? Het antwoord op die vragen hoort in het plan te staan, niet pas in de uitvoering.
Transparantie als randvoorwaarde
De kern van de kritiek wijst de weg vooruit: maak methodes, datasets en scenario’s openbaar. Laat onafhankelijke experts de berekeningen reproduceren en voer een gevoeligheidsanalyse uit. Publiceer daarnaast risico’s en alternatieve scenario’s, inclusief gevolgen voor milieu, personeel en regionale spreiding. Zo ontstaat een plan dat beleidsvast is, ook als omstandigheden veranderen.
Voor AI-toepassingen vraagt dit om technische documentatie en uitlegbaarheid. Beschrijf het gebruikte model, de trainingsdata en de testresultaten in begrijpelijke taal. Leg ook vast hoe menselijke controle is geregeld en hoe burgers bezwaar kunnen maken. Dit sluit aan bij de Europese AI-verordening en versterkt vertrouwen.
Met een transparante basis kunnen kabinet, regio’s en bedrijven betere keuzes maken. Dan wordt duidelijk waar publieke euro’s het meeste effect hebben en waar bijsturing nodig is. Pas dan kan een toekomstplan voor chips en AI uitgroeien tot een uitvoerbaar programma met meetbare waarde voor Nederland en Europa.
