Kunstmatige intelligentie verslaat mensen in quizzen en toelatingstoetsen. Maar in ziekenhuizen ligt de lat anders. Europese en Nederlandse zorgprofessionals vragen zich nu af of systemen als GPT-4 en Med-PaLM 2 ook veilig en beter diagnosticeren. Dat debat raakt direct aan de Europese AI-verordening en de gevolgen voor overheid en zorg op het moment van schrijven.
Quizwinnaar is geen arts
Grote taalmodellen, software die patronen in tekst leert, halen hoge scores op medische toetsen. GPT-4 en Googles Med-PaLM 2 beantwoorden meerkeuzevragen vaak goed. Ook op kennisquizzen doen deze modellen het prima. Maar een klinische diagnose vraagt meer dan kennis uit teksten.
Een dokter combineert klachten, lichamelijk onderzoek en context. Een model ziet alleen wat er is ingevoerd. Het kan ook hallucineren: zelfverzekerd onjuiste antwoorden geven. Dat is riskant als het om gezondheid gaat.
Med-PaLM 2 is getraind op medische data en scoort beter op examens. Toch is een toets geen operatiekamer. Patiƫnten zijn geen multiplechoice. Mensenlevens vragen om verantwoorde inzet en bewijs in de praktijk.
In een vergelijkende studie werden 78% van de chatbot-antwoorden als empathischer beoordeeld dan die van artsen; kwaliteit zegt echter niets over patiƫntveiligheid bij echte zorgbeslissingen.
Ziekenhuispraktijk blijft weerbarstig
In Europa zien we vooral inzet bij beeldvorming. CE-gemarkeerde software zoals Aidoc, Viz.ai en Aidence Veye Lung Nodules helpt bij triage en detectie. Radiologen krijgen zo sneller een waarschuwing bij mogelijke afwijkingen. Dat bespaart tijd, maar de arts beslist.
Niet elke toepassing werkt even goed. Bekende sepsismodellen in elektronische dossiers haalden in evaluaties soms lage nauwkeurigheid. Een model kan veel alarmen geven die niet kloppen. Dan neemt de werkdruk toe in plaats van af.
Chatbots voor triage of uitslaguitleg worden getest in Nederlandse ziekenhuizen. Ze beantwoorden veelvoorkomende vragen in begrijpelijke taal. Toch blijven ze achter de schermen en onder toezicht. Zonder medisch keurmerk mogen ze geen diagnose stellen.
AI-verordening maakt zorg strenger
De Europese AI-verordening plaatst medische AI in de hoge-risicoklasse. Fabrikanten moeten dataākwaliteit, uitlegbaarheid, logbestanden en menselijk toezicht aantoonbaar regelen. Ziekenhuizen blijven verantwoordelijk voor veilig gebruik. Dat geldt ook op het moment van schrijven.
Daarnaast geldt de Europese verordening medische hulpmiddelen (MDR). Software die diagnostiek of behandeling ondersteunt, heeft een CEāmarkering nodig. Dat vraagt klinische evaluaties en risicoābeheer. De Inspectie Gezondheidszorg en Jeugd ziet hier in Nederland op toe.
De AVG stelt eisen aan patiƫntgegevens. Denk aan dataminimalisatie, versleuteling en een Data Protection Impact Assessment. Doorgifte naar landen buiten de EU vraagt extra waarborgen. Dit raakt ook overheden bij inkoop en aanbesteding van AI in de zorg.
Vandaag nuttig als assistent
De meeste meerwaarde zit nu in beslisāondersteuning. Het systeem geeft een suggestie, de arts toetst en beslist. AI kan dossiers structureren en samenvattingen maken. Spraakānaarātekst vermindert administratieve lasten.
Veilige inzet vraagt duidelijke grenzen. Gebruik modellen voor conceptbrieven, checklists en tweede meningen. Laat geen autonome beslissingen toe. Log elke aanbeveling en zorg voor een snelle menselijke review.
Voor taalmodellen geldt: werk met afgeschermde omgevingen of EUāclouds. Vermijd het plakken van patiĆ«ntdata in publieke chats. Fijnslijpen op Nederlandse medische termen verhoogt bruikbaarheid. Toch blijft klinische validatie verplicht.
Gebrek aan data en bewijs
Nederlandstalige, goed gelabelde medische datasets zijn schaars. Dat beperkt training en toetsing. Federated learning kan helpen: trainen zonder data te verplaatsen. Zo blijven dossiers in het ziekenhuis, wat de privacy beschermt.
Representativiteit is een tweede probleem. Modellen die vooral op Amerikaanse data zijn getraind, missen Nederlandse context. Denk aan richtlijnen, medicatie en populatieverschillen. Dat kan tot scheve uitkomsten leiden.
Integratie met elektronische patiĆ«ntendossiers is ook lastig. Ziekenhuizen werken met systemen zoals ChipSoft HiX of Epic. Standaarden als HL7 FHIR maken koppelen mogelijk. Maar auditātrails en versiebeheer moeten op orde zijn.
Nederlandse zorg zoekt balans
De zorg kampt met personeelstekorten en wachtlijsten. Slimme algoritmen kunnen tijd winnen door routinewerk te verlichten. Triage, documentatie en planning zijn kansrijke plekken. Zo blijft er meer tijd voor het gesprek met de patiƫnt.
Financiering speelt mee. Zorginstituut Nederland en zorgverzekeraars willen bewijs van kosteneffectiviteit. Pilots moeten laten zien wat werkt, voor welke patiƫnten, en tegen welke kosten. Pas dan volgt brede inzet.
De komende jaren worden beslissend. Meer CEāgemarkeerde systemen komen op de markt. De AIāverordening zet kaders voor verantwoord gebruik. Wie nu verstandig experimenteert, plukt straks de vruchten zonder de patiĆ«ntveiligheid te riskeren.
