• Home
  • /
  • Nieuws
  • /
  • Artsen waarschuwen: deepfake-dokters op TikTok ondermijnen vertrouwen
Artsen waarschuwen: deepfake-dokters op TikTok ondermijnen vertrouwen - AI Insider

Door Dave

april 22, 2026

Artsen in België en Nederland slaan alarm over een snelle opmars van deepfakes van bekende dokters op sociale media. Nepvideo’s en stemkloons verschijnen in berichten en advertenties op Facebook, Instagram, TikTok en YouTube. Dat gebeurt nu en het aantal meldingen groeit. Het ondermijnt vertrouwen in de zorg en schuurt met de AVG en de nieuwe Europese AI-verordening.

Artsen doelwit in advertenties

Oplichters gebruiken het gezicht of de stem van bekende artsen om wondermiddelen, afslankpillen of cryptoproducten te promoten. De filmpjes lijken op echte interviews of nieuwsitems, vaak met nagemaakte logo’s. Linkjes leiden naar malafide webshops of investeringssites. Veel kijkers merken niet dat het om gemanipuleerde beelden gaat.

Een deepfake is een met kunstmatige intelligentie bewerkte foto, video of stem die echt lijkt, maar niet echt is.

De technologie is laagdrempelig geworden. Met generatieve AI, face-swapsoftware en voice cloning kunnen fraudeurs snel geloofwaardige kopieën maken. Voorbeelden zijn avatarplatforms zoals Synthesia, stemkloners zoals ElevenLabs en open-source tools voor gezichtsverwisseling. Voice cloning is software die iemands stem nabootst op basis van korte geluidsfragmenten.

De schade is breder dan financiële oplichting. Artsen vrezen dat nepaanbevelingen patiënten wegleiden van bewezen behandelingen. Ook kan het vaccinatie- en medicijnvertrouwen dalen. Mensen met lage digitale vaardigheden zijn extra kwetsbaar.

Platforms reageren traag

Meta, TikTok en YouTube verwijderen geregeld gemelde nepvideo’s, maar veel deepfakes glippen door de moderatie. Adverteerders wisselen snel van account en domeinnaam. Detectiesystemen herkennen niet elke bewerking, zeker als het om subtiele stemkloons gaat. Daardoor blijven misleidende advertenties soms dagen online.

Onder de Europese Digital Services Act (DSA) moeten zeer grote platforms systemische risico’s zoals misleiding en deepfakes actief beperken. Ze moeten effectieve meld- en actieroutes hebben, ad libraries bijhouden en herhaalde overtreders aanpakken. De Europese Commissie onderzoekt op het moment van schrijven de naleving en kan boetes opleggen. Voor zorggerelateerde misleiding weegt het publieke belang extra zwaar.

Platforms voeren wel nieuwe labels in voor synthetische media. Meta toont “Made with AI”-labels, YouTube eist een melding bij gemanipuleerde content en TikTok verplicht AI-tags. Toch is handhaving nog wisselend en gebruikers zien labels niet altijd bij doorplaatsingen of geknipte fragmenten.

EU-regels verplichten labeling

De Europese AI-verordening (AI Act) legt transparantieplichten op voor deepfakes. Wie synthetische beelden of stemmen publiceert, moet duidelijk maken dat het nep is. Die verplichting wordt naar verwachting gefaseerd van kracht in 2025, met volledige toepassing richting 2026. Voor politieke of gezondheidsinformatie is heldere labeling essentieel om misleiding te voorkomen.

Aanbieders van generatieve modellen, zoals OpenAI, Google, Anthropic en Stability AI, krijgen extra eisen rond documentatie en risicobeperking. Technieken zoals watermerken en Content Credentials (C2PA, gesteund door onder meer Adobe en Microsoft) moeten herkomst aantoonbaar maken. Zulke “content-wegwijzers” helpen bij forensisch bewijs, al kunnen kwaadwillenden ze proberen te verwijderen. Detectie en herkomstbewijzen werken het best in combinatie met platformhandhaving.

Voor zorginstellingen en overheden betekent dit: als zij zelf synthetische media inzetten, moeten ze dat duidelijk vermelden. Onjuiste of misleidende toepassing kan leiden tot sancties en reputatieschade. Voor oplichters geldt dat onlabelde deepfakes een extra overtreding opleveren bovenop consumentenfraude. Platforms moeten aantoonbaar maatregelen nemen om dit te beperken onder de DSA.

AVG en portretrecht gelden

Het zonder toestemming gebruiken van iemands gezicht of stem raakt biometrische gegevens. Onder de AVG is verwerking daarvan in principe verboden zonder geldige grondslag en passende waarborgen. Bij nepaanbevelingen ontbreekt toestemming en is het doel misleidend. Bovendien is er sprake van oneerlijke handelspraktijken.

In Nederland en België biedt het portretrecht mogelijkheden om verwijdering en schadevergoeding te eisen. Artsen kunnen een notice-and-takedown sturen en spoedmaatregelen vragen bij platforms en hosts. Bewijs vastleggen (screenshots, URL’s, tijdstempel) vergroot de kans op snelle actie. Snelle melding helpt ook om vervolgschade te beperken.

Slachtoffers kunnen daarnaast klagen bij toezichthouders. In Nederland zijn dat onder meer de Autoriteit Persoonsgegevens, de Autoriteit Consument & Markt en de Stichting Reclame Code. In België kan melding bij de Gegevensbeschermingsautoriteit, FOD Economie en de Jury voor Ethische Praktijken inzake Reclame. Strafrechtelijke stappen zijn mogelijk bij ernstige oplichting of identiteitsmisbruik.

Zorgsector kan nu handelen

Ziekenhuizen en beroepsverenigingen kunnen proactief monitoren op naam- en beeldaanvallen. Claim officiële accounts en domeinen, en publiceer een vaste verificatiepagina met “dit zijn onze kanalen”. Richt een snel escalerend proces in met juridische, communicatie- en IT-contactpunten. Maak afspraken met platformpartnerships voor prioritaire verwijdering.

Voor eigen uitingen helpt het toevoegen van Content Credentials (C2PA) en basiswatermerken. Dat voorkomt geen kopieën, maar versterkt bewijs en detectie. Houd originelen en metadata veilig opgeslagen. Gebruik consistente visuele en tekstuele stijl, zodat afwijkingen sneller opvallen.

Train artsen en communicatieteams in het herkennen van deepfakes. Let op onnatuurlijke lipbewegingen, vlakke mimiek, rare lichtval of een stem zonder ademhalingseffect. Controleer links, afzenders en domeinen, en zoek naar dezelfde video op officiële kanalen. Geef patiënten duidelijke tips waar zij twijfelachtige content kunnen melden.

Over de schrijver 

Dave

Hoi, ik ben Dave – schrijver, onderzoeker en nieuwsgierige geest achter AIInsiders.nl. Ik hou me bezig met de manier waarop technologie ons leven verandert, en vooral: hoe we dat een beetje kunnen bijbenen. Van slimme tools tot digitale trends, ik duik graag in de wereld achter de schermen.

Mijn stijl? Lekker helder, soms kritisch, altijd eerlijk. Geen onnodig jargon of overdreven hype, maar praktische inzichten waar je echt iets aan hebt. AI is niet eng of magisch – het is interessant, en ik help je graag om dat te zien.

Meer lezen

12/05/2026 17:46

Cisco Systems ziet zijn aandeel deze week sterk oplopen op Wall Street. Het aandeel is op het moment van schrijven technisch “overgekocht”, het hoogste niveau lees verder

Cisco overgekocht sinds 2018; topanalist voorspelt 25% groei door AI

12/05/2026 15:43

Nguyen Thanh Sinh, vicevoorzitter van het Provinciaal Volkscomité, bracht recente werkbezoeken aan de gemeenten Yen Binh, Thac Ba, Cam Nhan, Yen Thanh en Bao Ai lees verder

AI-analyse (OpenAI, Google Cloud) onthult loopbaan Nguyen Thanh Sinh

12/05/2026 15:36

Microsoft blijft op de beurs gedreven door kunstmatige intelligentie. Beleggers verwachten meer vraag naar Azure AI en Copilot. Op het moment van schrijven ondersteunt dit lees verder

Microsoft-aandeel stijgt door AI — wat zegt dat over de markt?

12/05/2026 15:33

Cryptobeurs Bitget lanceert het AI-gerelateerde project preOPAI via zijn IPO Prime-programma. Algemeen directeur Gracy Chen wil zo deelname aan kunstmatige intelligentie voor een breder publiek lees verder

Gracy Chen brengt preOPAI naar Bitget IPO Prime — AI-lancering breidt uit
>