Deze week staat een jaarlijkse “AI for good”-competitie in de spotlights in Europa. Start-ups en studententeams tonen er systemen die maatschappelijke problemen aanpakken. De initiatieven richten zich op zorg, energie, mobiliteit en onderwijs. Het doel is nuttige toepassingen laten zien, met oog voor veiligheid en recht op privacy.
Impact belangrijker dan demo
De wedstrijd draait om meetbare resultaten, niet om een slimme demo. Teams moeten aantonen wat hun algoritme verbetert en voor wie. Denk aan kortere wachttijden in de zorg of minder energieverlies op het net. De jury kijkt naar impact, kosten en opschaalbaarheid.
“AI for good” betekent dat een model niet alleen efficiënt is, maar ook publieke waarden respecteert. Dat gaat over gelijke behandeling, uitlegbaarheid en toezicht. Een goed systeem laat zien waarom het een advies geeft. Zo kan een arts of ambtenaar het besluit controleren.
Deelnemers werken vaak met echte data en echte gebruikers. Pilots vinden plaats in ziekenhuizen, gemeenten of scholen. De praktijk toont dan wat werkt en wat niet. Dit helpt om beloftes te scheiden van haalbare producten.
Europese regels sturen ontwerp
De Europese AI-verordening (AI Act) bepaalt straks hoe aanbieders systemen moeten bouwen en testen. Hoe hoger het risico, hoe strenger de eisen. Toepassingen in zorg, werk en overheid vallen vaak in de hoge-risico klasse. Dat vraagt om risicobeheer, logging en menselijk toezicht.
De AVG blijft tegelijk de basis voor alle gegevens. Dataminimalisatie en versleuteling zijn verplicht als er persoonsgegevens worden verwerkt. De Autoriteit Persoonsgegevens houdt hier in Nederland toezicht op. Dit dwingt teams om privacy by design toe te passen.
Voor overheden is dit extra relevant. De “Europese AI-verordening gevolgen overheid” zijn concreet: registerplicht voor hoog-risico systemen en transparantie naar burgers. Gemeenten en uitvoeringsdiensten moeten dus inkopen met juridische checklists. De competitie stimuleert dat al in de ontwerpfase.
“Hoe hoger het risico, hoe strenger de regels” — kernprincipe van de Europese AI-verordening op het moment van schrijven.
Zorg en energie domineren
Inzendingen komen vaak uit de zorg. Denk aan triage-tooling die klachten voorselecteert, of beeldanalyse die radiologen helpt. Zulke modellen moeten uitlegbaar zijn, zodat een arts de controle houdt. Fouten moeten snel worden opgemerkt en gecorrigeerd.
Ook energie is een groeigebied, zeker met netcongestie in Nederland. Algoritmen voorspellen verbruik en sturen batterijen of laadpalen aan. Dat helpt om pieken te dempen. Tegelijk zijn open data en samenwerking met netbeheerders nodig.
Mobiliteit en onderwijs volgen met praktische cases. In mobiliteit gaat het om verkeersveiligheid en doorstroming. In onderwijs om vroegsignalering van uitval en gepersonaliseerd leren. In alle domeinen blijft menselijke regie essentieel.
Transparantie en datasets tellen
De kwaliteit van data bepaalt de kans op succes. Onvolledige of scheve datasets geven scheve uitkomsten. Teams moeten daarom herkomst en bias van data uitleggen. Dat kan met datasheets of modelkaarten, in eenvoudige taal.
Open modellen en open bronnen nemen een grotere rol. Europese initiatieven zoals AI4EU en plannen voor dataspaces maken delen makkelijker. In de zorg komt HealthData@EU er, op het moment van schrijven nog in ontwikkeling. Dat moet veilige uitwisseling over de grens mogelijk maken.
Voor Nederland helpt de Nederlandse AI Coalitie (NL AIC) met netwerken en richtlijnen. Universiteiten en ICAI-labs bieden testomgevingen. Zo kunnen prototypes sneller naar een pilot. En pilots sneller naar een product met toezicht.
Wat deelnemers nodig hebben
Een goed team werkt multidisciplinair. Niet alleen datawetenschappers, maar ook juristen, domeinexperts en ethici. Samen vertalen zij beleid naar techniek. Zo voorkomen ze later dure aanpassingen.
Organisaties sluiten vroeg dataverwerkersovereenkomsten en DPIA’s af. Een DPIA is een privacyrisico-analyse bij gevoelige gegevens. Versleuteling en toegangsbeheer zijn standaard. Logging en auditsporen maken controle mogelijk.
Publieke partners zoals gemeenten, ziekenhuizen en scholen zijn onmisbaar. Zij leveren realistische testcases en gebruikersfeedback. Dit versnelt acceptatie in de praktijk. En het verkleint de kans op ongewenste neveneffecten.
Van pilot naar opschaling
Opschalen lukt alleen met duidelijke governance. Wie is verantwoordelijk bij een fout, en wie legt verantwoording af? De AI Act vraagt daar expliciet om. Het hoort dus in elke routekaart te staan.
Teams kiezen vaak voor een gefaseerde uitrol. Eerst een beperkte groep gebruikers, dan stap voor stap groter. Resultaten worden gedeeld in openbare rapporten. Dat bouwt vertrouwen bij financiers en toezichthouders.
Tot slot telt inkoop door de overheid. Aanbestedingen vragen nu al om transparantie en risicobeheersing. Wie dat kan aantonen, heeft een voordeel. De jaarlijkse competitie helpt deelnemers om die lat te halen.
