De Wereldgezondheidsorganisatie (WHO) voor de Europese regio heeft een nieuw Technisch Adviesorgaan voor kunstmatige intelligentie in de zorg gelanceerd. Met deze Technical Advisory Group (TAG) wil WHO/Europe beleidmakers en zorgstelsels helpen om AI veilig, effectief en rechtvaardig toe te passen.
De aankondiging volgt op toenemende inzet van AI in ziekenhuizen en publieke gezondheidszorg, en de behoefte aan eenduidige richtlijnen in de 53 landen van de Europese regio.
Het adviesorgaan moet zorgen voor wetenschappelijk onderbouwd, onafhankelijk advies over beleid, normen en implementatievragen rond AI. Daarmee beoogt WHO/Europe risicoās te beperken en tegelijk de waarde van AI voor patiĆ«nten, zorgprofessionals en bestuurders te vergroten.
Wat beoogt de nieuwe adviesgroep precies?
De TAG is bedoeld als multidisciplinair platform dat praktijkervaring en wetenschappelijke inzichten samenbrengt voor de gezondheidszorg. In WHO-context werken zulke groepen doorgaans aan concrete aanbevelingen, technische notaās en best practices die landen direct kunnen toepassen.
De focus ligt op themaās als patiĆ«ntveiligheid, effectiviteit, ethiek, transparantie en rechtvaardige toegang. Daarnaast kan de groep lacunes in bewijs en data signaleren en prioriteiten voor onderzoek en capaciteit opstellen.
WHO/Europe benadrukt dat AI-toepassingen pas waarde toevoegen als ze aantoonbaar betrouwbaar functioneren in de klinische praktijk en publieke gezondheidszorg. Dat vergt robuuste evaluatie, inclusief impact op verschillende patiƫntgroepen en werkprocessen. Ook governance is cruciaal: wie is verantwoordelijk bij fouten, hoe worden incidenten gemeld en hoe blijft menselijk toezicht geborgd?
Waarom nu: versnelling van AI in de zorg
AI wordt in Europa snel getest en ingevoerd, van beeldvorming en triage tot administratie en planning. Grote taal- en multimodale modellen openen nieuwe mogelijkheden, maar brengen ook vragen mee over privacy, desinformatie, bias en aansprakelijkheid.
De pandemie versnelde digitalisering en data-uitwisseling, waardoor de noodzaak is toegenomen om duurzame kaders voor veilige AI te creƫren. Beleidsmakers vragen bovendien om praktische handvatten voor inkoop, validatie en toezicht.
Eerdere WHO-publicaties over ethiek en governance van AI (2021) en over grote multimodale modellen (2023) bieden een basis, maar regionale uitwerking blijft nodig. Lidstaten in de Europese regio hebben uiteenlopende infrastructuren, wetgeving en capaciteit. De TAG kan daarbij helpen met contextspecifieke richtlijnen en met het delen van geleerde lessen tussen landen.
Taken en prioriteiten: van evaluatie tot implementatie
Verwachte prioriteiten zijn het opzetten van normen voor klinische en publieke gezondheids-evaluatie, inclusief studies in de praktijk. Daar horen methoden bij voor bias-detectie, fairness, uitlegbaarheid en post-market monitoring van AI-systemen.
Ook datakwaliteit en interoperabiliteit zijn sleutelpunten, zodat modellen reproduceerbaar presteren in diverse zorgcontexten. Transparantie over modeldoel, prestaties en beperkingen is nodig om verantwoord gebruik te ondersteunen.
Een tweede pijler is implementatie en opschaling: hoe kopen zorginstellingen AI in, hoe trainen zij personeel en hoe organiseren zij governance? Richtlijnen voor risicobeheer, incidentrapportage en menselijk toezicht zijn daarbij essentieel.
Daarnaast kan de TAG bijdragen aan handvatten voor publieke communicatie en voor het betrekken van patiƫntenorganisaties, zodat toepassingen aansluiten bij behoeften en waarden van gebruikers.
Samenhang met EU-wetgeving en nationale regels
De Europese AI-verordening (AI Act) classificeert veel medische AI-systemen als hoog risico, met eisen aan risicobeheer, datakwaliteit, transparantie en toezicht. Deze verplichtingen bestaan naast het kader voor medische hulpmiddelen (MDR), de AVG voor gegevensbescherming en initiatieven zoals de European Health Data Space.
Voor zorgverleners en leveranciers is samenhang tussen deze regels cruciaal om veilig en compliant te innoveren. De TAG kan landen ondersteunen met interpretatie, praktische aanbevelingen en afstemming met internationale normen.
Harmonisatie vermindert fragmentatie en vergemakkelijkt grensoverschrijdende inzet van betrouwbare AI. Denk aan gedeelde definities, consistente evaluatiecriteria en uitwisseling van best practices. Ook kan samenwerking met toezichthouders, accreditatie-instanties en standaardisatieorganisaties helpen om duidelijke, toepasbare kaders te borgen.
Kansen en risicoās voor patiĆ«nten en professionals
AI kan wachttijden verkorten, diagnostiek ondersteunen en administratieve lasten verlichten. In publieke gezondheidszorg kan het trends vroeg detecteren en middelen efficiƫnter inzetten. Tegelijk schuilt gevaar in over-reliance op algoritmes, bias die kwetsbare groepen benadeelt en onvoldoende uitlegbaarheid. Daarom zijn menselijk toezicht, training van professionals en continue kwaliteitsbewaking onmisbaar.
Toegankelijkheid en inclusie verdienen speciale aandacht. AI moet werken voor diverse populaties, talen en zorginstellingen, niet alleen voor datarijke, academische centra. Investeren in datakwaliteit, representatieve datasets en digitale vaardigheden helpt om voordelen eerlijk te verdelen en gezondheidsverschillen te verkleinen.
Volgende stappen
In de komende maanden werkt WHO/Europe met lidstaten, deskundigen en stakeholders aan een agenda met prioritaire themaās en producten. Resultaten worden doorgaans openbaar gedeeld via rapporten, technische brieven en bijeenkomsten. Lidstaten kunnen de uitkomsten gebruiken voor beleid, inkoop en implementatie in zorgpraktijken. Met deze stap wil WHO/Europe tempo maken, zonder in te leveren op veiligheid, ethiek en publieke waarde.
Referenties
World Health Organization (WHO) ā āWHO/Europe launches Technical Advisory Group on Artificial Intelligence for Healthā, gepubliceerd op 29 september via who.int
