Nederlandse zorginstellingen, universiteiten en bedrijven werken aan hergebruik van gezondheidsdata, een AI-hackathon en een 3D-leeromgeving. Deze week staan zulke projecten opnieuw in de schijnwerpers in Nederland en Europa. Ze willen sneller innoveren en tegelijk voldoen aan de AVG en de Europese AI-verordening, met gevolgen voor overheid en onderwijs. Het doel: betere zorg en moderner leren, zonder privacy of veiligheid te verliezen.
Zorgdata hergebruik vraagt regie
Hergebruik van gezondheidsdata betekent dat gegevens opnieuw worden ingezet voor onderzoek, beleid of het trainen van algoritmen. In Europa wordt dit georganiseerd via de European Health Data Space, een nieuw raamwerk voor datadeling in de zorg. In Nederland spelen VWS, Health-RI en Nictiz een rol in standaarden en infrastructuur. De kern is: toegang voor onderzoekers verbeteren, terwijl privacy en controle behouden blijven.
De AVG stelt eisen als dataminimalisatie, pseudonimisering en een duidelijke grondslag. Voor gevoelige data in de zorg is vaak expliciete toestemming of een wettelijke basis nodig. Technieken als federated learning, waarbij modellen lokaal leren zonder brondata te verplaatsen, kunnen helpen. Ook synthetische data kan risicoās verlagen, maar vervangt echte data niet volledig.
Interoperabiliteit is een praktisch knelpunt. Zorgsystemen moeten dezelfde taal spreken, bijvoorbeeld met HL7 FHIR, een open standaard voor medische gegevens. Zonder goede metadata en datakwaliteit worden AI-modellen onbetrouwbaar. Daarom vragen ziekenhuizen om datagovernance, logging en audits voordat modellen naar de kliniek gaan.
āSecundair gebruik van gezondheidsdata is hergebruik voor onderzoek, innovatie of beleid, niet voor directe patiĆ«ntenzorg.ā
Hackathons geven snelle prototypes
AI-hackathons leveren in korte tijd werkende demoās op, geen afgebouwde producten. Teams testen ideeĆ«n met modellen als Llama 3 (Meta), GPT-4o (OpenAI) en Mistral Large (Mistral AI). Dat is nuttig voor verkenning, maar productie vraagt meer: beveiliging, uitlegbaarheid en beheer. Organisaties die publieke taken uitvoeren moeten bovendien hun algoritmen kunnen verantwoorden.
De Europese AI-verordening plaatst medische AI in de hoogrisicoklasse, met strenge documentatie en testen. Ook voor onderwijs- en HR-systemen gelden extra eisen bij inzet voor beoordeling of selectie. Een hackathon-resultaat moet dus langs een checklist voor risicoās, bias en prestaties. Zonder die stap blijft een prototype een proof-of-concept.
Licenties en data mogen niet worden vergeten. Open modellen bieden flexibiliteit, maar sommige licenties beperken commercieel gebruik. Gesloten APIās kunnen sneller starten, maar verhogen afhankelijkheid en kosten. Juridisch is een DPIA, een gegevensbeschermingseffectbeoordeling, vaak verplicht bij nieuwe gegevensverwerking.
3D-leeromgeving groeit met waarborgen
Een 3D-leeromgeving gebruikt virtuele of gemengde werkelijkheid om te oefenen in een nagebootste omgeving. Onderwijsinstellingen bouwen die met engine-software als Unity of Unreal Engine. Voor techniekonderwijs en zorgsimulaties kan dit veiliger en goedkoper oefenen mogelijk maken. Docenten krijgen zo nieuwe didactische opties, zoals adaptieve scenarioās.
De AVG geldt ook in VR en AR. Bewegingsdata en oogbewegingen kunnen als biometrische gegevens worden gezien. Opslag en verwerking vragen daarom strikte beveiliging en dataminimalisatie. Bij voorkeur gebeurt verwerking aan de rand, op het device, om datastromen te beperken.
De AI-verordening raakt 3D-leren als algoritmen studenten beoordelen of aanbevelingen sturen. Zulke systemen kunnen in een hogere risicoklasse vallen. Dat betekent testen op eerlijkheid, robuustheid en uitlegbaarheid. Instellingen moeten vastleggen wie verantwoordelijk is voor updates en incidenten.
EU-regels bepalen implementatiekeuzes
De Europese AI-verordening introduceert risicoklassen en verplichtingen voor aanbieders en gebruikers van AI-systemen. Generatieve modellen voor algemeen gebruik krijgen transparantie-eisen; modellen met systeemrisicoās krijgen extra plichten. Voor overheden zijn de gevolgen concreet: inkoop, audit en openbaarmaking worden strakker. Dit raakt ook pilots en innovaties in zorg en onderwijs.
De European Health Data Space regelt toegang tot zorgdata voor primair en secundair gebruik. Er komen data access bodies die aanvragen beoordelen en toezicht houden. Op het moment van schrijven bereiden lidstaten implementatie voor de komende jaren voor. Nederland zal nationaal beleid en standaarden hierop moeten aansluiten.
De AVG blijft het fundament onder alle dataprojecten. Organisaties moeten doelen beperken en alleen noodzakelijke data verwerken. Versleuteling, pseudonimisering en logging zijn standaard. Zonder deze basis worden AI-projecten snel stilgelegd door privacyrisicoās.
Vijf stappen voor organisaties
Begin met een datainventaris en dataminimalisatie. Leg vast wie welke gegevens gebruikt en waarom. Voer een DPIA uit voor nieuwe AI-toepassingen met persoonsgegevens. Maak afspraken over bewaartermijnen en datadeling met partners.
Bouw een technisch minimum in. Versleutel data in rust en onderweg, en scheid ontwikkel- en productiedata. Gebruik modelkaarten en datasheets om herkomst en beperkingen te documenteren. Monitor prestaties en bias doorlopend na livegang.
Werk juridisch en organisatorisch. Check licenties van modellen en datasets. Leg aansprakelijkheid, updates en exit-afspraken vast in contracten om vendor lock-in te voorkomen. Train teams in veilige AI-ontwikkeling en leg beslissingen vast in een audittrail.
