AI-modellen naderen het niveau van artsen bij medische vragen en triage. Grote spelers zoals OpenAI (GPT-4) en Google (Med-PaLM 2) testen hun systemen in ziekenhuizen en labs. Dat gebeurt nu, ook in Europa en Nederland, en roept direct vragen op over veiligheid, aansprakelijkheid en privacy. Dit raakt de Europese AI-verordening gevolgen overheid en zorg, omdat besluitvorming in de zorg strenger wordt getoetst.
AI scoort bijna artsenniveau
Modellen als GPT-4 van OpenAI en Med-PaLM 2 van Google laten sterke resultaten zien op medische examens en casusbeschrijvingen. Ze geven uitgebreide antwoorden, noemen differentiële diagnoses en verwijzen naar richtlijnen. Daarmee lijken ze op jonge arts-assistenten die gestructureerd denken.
Toch is het verschil tussen een toets en de echte praktijk groot. In de kliniek zijn patiënten complexer en onvoorspelbaarder dan een meerkeuzetoets. Een fout kan directe gevolgen hebben voor gezondheid en vertrouwen in de zorg.
Ook zijn veel tests uitgevoerd in gecontroleerde settings. Dat betekent dat de data schoon zijn en de taken duidelijk afgebakend. In spoedzorg of huisartsenpraktijken ontbreekt die zekerheid vaak, wat de kans op misinterpretaties vergroot.
Sterk, maar nog onbetrouwbaar
Grote taalmodellen, of LLM’s, zijn systemen die tekst voorspellen op basis van enorme hoeveelheden voorbeelddata. Ze kunnen overtuigend redeneren, maar “hallucineren” soms: ze verzinnen feiten die niet kloppen. In de zorg kan zo’n verzinsel worden aangezien voor een overtuigend advies.
Een tweede probleem is kalibratie: het systeem klinkt even zeker bij juiste als bij foute antwoorden. Artsen leren twijfel te uiten en onzekerheid te wegen, AI doet dat nog beperkt. Daardoor kan een onjuist advies toch geloofwaardig overkomen.
Testresultaten zeggen weinig over specifieke patiëntgroepen. Data bevatten vaak minder voorbeelden van zeldzame aandoeningen of ondergerepresenteerde groepen. Dat kan leiden tot bias, met slechtere uitkomsten voor juist die patiënten.
Automation bias is de neiging van mensen om een computersysteem te volgen, ook als ze zelf twijfelen.
Vertrouwen en aansprakelijkheid botsen
Zorgverleners waarderen AI als tweede lezer of checklist, bijvoorbeeld bij triage of radiologie. Maar wie is aansprakelijk als het algoritme een fout advies geeft en de arts dat overneemt? In de praktijk blijft de eindverantwoordelijkheid bij de arts, terwijl het systeem vaak een zwarte doos is.
Ziekenhuizen vragen daarom om transparantie: welke data zijn gebruikt, hoe is het model getest, en wat zijn bekende valkuilen? Zonder die informatie is het lastig om risico’s goed te beoordelen. Leveranciers die dit niet bieden, komen moeilijker binnen in de kliniek.
Er is behoefte aan veilige invoering: klein beginnen, met toezicht, en duidelijke stopknoppen. Dat betekent loggen van elke aanbeveling en actief controleren op afwijkingen. Pas na bewezen meerwaarde hoort opschaling thuis.
Data en privacy onder de AVG
Medische data vallen onder de AVG en gelden als bijzonder gevoelig. Hergebruik voor het trainen van modellen vereist een wettelijke grondslag, strikte dataminimalisatie en waar mogelijk pseudonimisering. Ziekenhuizen moeten ook kunnen uitleggen waarom data delen noodzakelijk is.
Nederlandse instellingen werken aan veilige onderzoeksomgevingen, zoals Trusted Research Environments. Daarin blijven data binnen strenge muren en wordt alleen het model geüpdatet. Dit verkleint het risico op datalekken en ongewenst hergebruik.
Voor leveranciers blijft datasoevereiniteit een kernpunt. Europese opslag, versleuteling en heldere verwerkersovereenkomsten zijn nodig om het vertrouwen van patiënten en toezichthouders te winnen. Dat kost tijd, maar voorkomt boetes en reputatieschade.
Europese AI-verordening gevolgen overheid
De Europese AI-verordening (AI Act) plaatst medische AI in de categorie “hoog risico”. Op het moment van schrijven vraagt dat om strenge eisen voor datakwaliteit, menselijk toezicht, robuustheid en logboeken. Overheden en toezichthouders moeten dit straks handhaven naast de bestaande medische hulpmiddelenwetgeving (MDR).
Voor ziekenhuizen betekent dit dubbele naleving: CE-markering als medisch hulpmiddel en voldoen aan AI Act-verplichtingen. Denk aan risicoanalyse, monitoring na ingebruikname en duidelijke instructies voor zorgprofessionals. De Inspectie Gezondheidszorg en Jeugd en de Autoriteit Persoonsgegevens krijgen hierin een belangrijke rol.
Ook de inkoop verandert. Publieke instellingen zullen eisen dat leveranciers audits, bias-analyses en beveiligingsmaatregelen aantonen. Zonder deze documentatie wordt het lastig om AI in te zetten in publieke zorgprocessen.
Nederlandse praktijk blijft voorzichtig
UMC’s en regionale ziekenhuizen testen AI vooral als ondersteuntje, niet als autonome arts. Radiologie en spoedtriage zijn logische startpunten, omdat daar veel gestandaardiseerde data zijn. Ook huisartsen verkennen beslisondersteuning, maar houden menselijke controle centraal.
De Wegiz, die elektronische gegevensuitwisseling verplicht stelt, kan veilige datastromen verbeteren. Beter gestandaardiseerde data helpen modellen én maken toezicht eenvoudiger. Maar standaardisatie is nog in uitvoering, waardoor grootschalige AI-toepassing tijd vraagt.
De richting is helder: AI kan artsen werk uit handen nemen en fouten verminderen, mits goed ingebed. Dat vraagt om transparante modellen, zorgvuldige validatie in Nederlandse populaties en duidelijke aansprakelijkheid. Tot die basis staat, blijft AI een assistent aan de zijlijn, geen vervanger van de dokter.

