Artsen in België en Nederland slaan alarm over een snelle opmars van deepfakes van bekende dokters op sociale media. Nepvideo’s en stemkloons verschijnen in berichten en advertenties op Facebook, Instagram, TikTok en YouTube. Dat gebeurt nu en het aantal meldingen groeit. Het ondermijnt vertrouwen in de zorg en schuurt met de AVG en de nieuwe Europese AI-verordening.
Artsen doelwit in advertenties
Oplichters gebruiken het gezicht of de stem van bekende artsen om wondermiddelen, afslankpillen of cryptoproducten te promoten. De filmpjes lijken op echte interviews of nieuwsitems, vaak met nagemaakte logo’s. Linkjes leiden naar malafide webshops of investeringssites. Veel kijkers merken niet dat het om gemanipuleerde beelden gaat.
Een deepfake is een met kunstmatige intelligentie bewerkte foto, video of stem die echt lijkt, maar niet echt is.
De technologie is laagdrempelig geworden. Met generatieve AI, face-swapsoftware en voice cloning kunnen fraudeurs snel geloofwaardige kopieën maken. Voorbeelden zijn avatarplatforms zoals Synthesia, stemkloners zoals ElevenLabs en open-source tools voor gezichtsverwisseling. Voice cloning is software die iemands stem nabootst op basis van korte geluidsfragmenten.
De schade is breder dan financiële oplichting. Artsen vrezen dat nepaanbevelingen patiënten wegleiden van bewezen behandelingen. Ook kan het vaccinatie- en medicijnvertrouwen dalen. Mensen met lage digitale vaardigheden zijn extra kwetsbaar.
Platforms reageren traag
Meta, TikTok en YouTube verwijderen geregeld gemelde nepvideo’s, maar veel deepfakes glippen door de moderatie. Adverteerders wisselen snel van account en domeinnaam. Detectiesystemen herkennen niet elke bewerking, zeker als het om subtiele stemkloons gaat. Daardoor blijven misleidende advertenties soms dagen online.
Onder de Europese Digital Services Act (DSA) moeten zeer grote platforms systemische risico’s zoals misleiding en deepfakes actief beperken. Ze moeten effectieve meld- en actieroutes hebben, ad libraries bijhouden en herhaalde overtreders aanpakken. De Europese Commissie onderzoekt op het moment van schrijven de naleving en kan boetes opleggen. Voor zorggerelateerde misleiding weegt het publieke belang extra zwaar.
Platforms voeren wel nieuwe labels in voor synthetische media. Meta toont “Made with AI”-labels, YouTube eist een melding bij gemanipuleerde content en TikTok verplicht AI-tags. Toch is handhaving nog wisselend en gebruikers zien labels niet altijd bij doorplaatsingen of geknipte fragmenten.
EU-regels verplichten labeling
De Europese AI-verordening (AI Act) legt transparantieplichten op voor deepfakes. Wie synthetische beelden of stemmen publiceert, moet duidelijk maken dat het nep is. Die verplichting wordt naar verwachting gefaseerd van kracht in 2025, met volledige toepassing richting 2026. Voor politieke of gezondheidsinformatie is heldere labeling essentieel om misleiding te voorkomen.
Aanbieders van generatieve modellen, zoals OpenAI, Google, Anthropic en Stability AI, krijgen extra eisen rond documentatie en risicobeperking. Technieken zoals watermerken en Content Credentials (C2PA, gesteund door onder meer Adobe en Microsoft) moeten herkomst aantoonbaar maken. Zulke “content-wegwijzers” helpen bij forensisch bewijs, al kunnen kwaadwillenden ze proberen te verwijderen. Detectie en herkomstbewijzen werken het best in combinatie met platformhandhaving.
Voor zorginstellingen en overheden betekent dit: als zij zelf synthetische media inzetten, moeten ze dat duidelijk vermelden. Onjuiste of misleidende toepassing kan leiden tot sancties en reputatieschade. Voor oplichters geldt dat onlabelde deepfakes een extra overtreding opleveren bovenop consumentenfraude. Platforms moeten aantoonbaar maatregelen nemen om dit te beperken onder de DSA.
AVG en portretrecht gelden
Het zonder toestemming gebruiken van iemands gezicht of stem raakt biometrische gegevens. Onder de AVG is verwerking daarvan in principe verboden zonder geldige grondslag en passende waarborgen. Bij nepaanbevelingen ontbreekt toestemming en is het doel misleidend. Bovendien is er sprake van oneerlijke handelspraktijken.
In Nederland en België biedt het portretrecht mogelijkheden om verwijdering en schadevergoeding te eisen. Artsen kunnen een notice-and-takedown sturen en spoedmaatregelen vragen bij platforms en hosts. Bewijs vastleggen (screenshots, URL’s, tijdstempel) vergroot de kans op snelle actie. Snelle melding helpt ook om vervolgschade te beperken.
Slachtoffers kunnen daarnaast klagen bij toezichthouders. In Nederland zijn dat onder meer de Autoriteit Persoonsgegevens, de Autoriteit Consument & Markt en de Stichting Reclame Code. In België kan melding bij de Gegevensbeschermingsautoriteit, FOD Economie en de Jury voor Ethische Praktijken inzake Reclame. Strafrechtelijke stappen zijn mogelijk bij ernstige oplichting of identiteitsmisbruik.
Zorgsector kan nu handelen
Ziekenhuizen en beroepsverenigingen kunnen proactief monitoren op naam- en beeldaanvallen. Claim officiële accounts en domeinen, en publiceer een vaste verificatiepagina met “dit zijn onze kanalen”. Richt een snel escalerend proces in met juridische, communicatie- en IT-contactpunten. Maak afspraken met platformpartnerships voor prioritaire verwijdering.
Voor eigen uitingen helpt het toevoegen van Content Credentials (C2PA) en basiswatermerken. Dat voorkomt geen kopieën, maar versterkt bewijs en detectie. Houd originelen en metadata veilig opgeslagen. Gebruik consistente visuele en tekstuele stijl, zodat afwijkingen sneller opvallen.
Train artsen en communicatieteams in het herkennen van deepfakes. Let op onnatuurlijke lipbewegingen, vlakke mimiek, rare lichtval of een stem zonder ademhalingseffect. Controleer links, afzenders en domeinen, en zoek naar dezelfde video op officiële kanalen. Geef patiënten duidelijke tips waar zij twijfelachtige content kunnen melden.

