Een nieuwe video van een voortvluchtige Nederlandse drugsbaron gaat deze week rond op X, TikTok en Telegram. In het fragment zegt de man dat hij nog op vrije voeten is en dat de opsporing hem niet zal pakken. De herkomst van de beelden is onduidelijk en de authenticiteit staat ter discussie. Deskundigen waarschuwen dat het om een deepfake kan gaan, gemaakt met kunstmatige intelligentie om verwarring te zaaien.
Herkomst video blijft onzeker
Het is onduidelijk waar en wanneer de video is opgenomen. Er ontbreekt metadata die normaal helpt om de oorsprong te controleren. Ook zijn er geen onafhankelijke getuigen die de opname kunnen bevestigen. Daarom is het lastig om vast te stellen of het om echte beelden gaat.
Forensische analisten kijken in zulke gevallen naar kleine details in beeld en geluid. Denk aan onnatuurlijke knipperfrequentie, lichtreflecties die niet kloppen of schokkerige mondbewegingen. Ook wordt het audioprofiel vergeleken met eerdere spraakopnamen. Die technische checks kosten tijd en leveren niet altijd een eenduidig antwoord op.
De video dient mogelijk een doel. Zulke uitingen kunnen bedoeld zijn om de politie te misleiden of tegenstanders te intimideren. Ze kunnen ook geruchten over iemands verblijfplaats aanwakkeren. Dat maakt ze interessant voor makers die met minimale middelen maximale impact zoeken.
Deepfakes worden toegankelijker
Deepfakes zijn nagemaakte audio of video, gemaakt met algoritmen die gezichten en stemmen nadoen. De techniek is beschikbaar in gebruiksvriendelijke apps en open-source pakketten. Voor stemklonen zijn diensten als ElevenLabs populair. Voor videobewerking bestaan tools als DeepFaceLab en commerciƫle generatoren van bedrijven als Pika en Stability AI.
Een deepfake is door AI gemaakte of bewerkte audio of video die iemand woorden of daden toeschrijft die niet hebben plaatsgevonden.
De drempel om dit te maken is laag. Met enkele fotoās en korte spraakfragmenten is al veel mogelijk. De output wordt steeds realistischer, zeker op een telefoon. Daardoor is het voor het publiek moeilijk om echt en nep te onderscheiden.
Er zijn ook methoden om herkomst zichtbaar te maken. Content Credentials, een standaard van het C2PA-consortium met partijen als Adobe en Microsoft, voegt herkomstlabels toe. Maar zulke labels ontbreken vaak op sociale media. En wie kwaad wil, kan ze weglaten of strippen.
Opsporing zet AI-detectie in
De Nederlandse politie en het Nederlands Forensisch Instituut (NFI) gebruiken specialistische software om gemanipuleerd beeld te herkennen. Zulke systemen zoeken naar sporen van bewerking in pixels, compressie en audiogolven. Ook worden locatieclaims vergeleken met open bronnen, zoals weerdata en geotags. Dit helpt om een eerste inschatting te maken.
Toch zijn er grenzen. Zeer goed gemaakte deepfakes ontlopen soms bekende detectoren. Daarom combineren onderzoekers meerdere methoden en vragen waar mogelijk originele bestanden op. Een kopie van een chat of uploadlog kan meer zeggen dan het beeld alleen.
Het Openbaar Ministerie kan optreden als deepfakes worden gebruikt om te bedreigen, te intimideren of de opsporing te hinderen. Dat kan vallen onder strafbare vormen van misleiding of opruiing. Ook kan verspreiding botsen met de AVG als er zonder grondslag biometrische gegevens, zoals gezichten en stemmen, worden verwerkt. Op het moment van schrijven is niet bekend of er al een formeel onderzoek naar de maker loopt.
EU eist labels voor deepfakes
De Europese AI-verordening (AI Act) verplicht makers en verspreiders van deepfakes tot duidelijke labeling. Gebruikers moeten kunnen zien dat een beeld of stem door een model is gemaakt of aangepast. Er zijn uitzonderingen, bijvoorbeeld voor wetshandhaving of satire, maar transparantie blijft het uitgangspunt. Deze plicht wordt de komende jaren gefaseerd ingevoerd.
Platforms vallen daarnaast onder de Digital Services Act (DSA). Grote platforms moeten risicoās van desinformatie en deepfakes beperken en sneller melden hoe zij modereren. Dat kan leiden tot strengere detectie en verwijdering van misleidende AI-videoās. Voor Nederlandse gebruikers kan dit betekenen dat uploads vaker worden voorzien van waarschuwingen of tijdelijk worden geblokkeerd.
Overheden en publieke instellingen krijgen hiermee extra handvatten. De combinatie van AI Act en DSA dwingt tot betere herkomstlabels en duidelijke meldpunten. Dit verkleint de kans dat nepvideoās de rechtsgang beĆÆnvloeden. Het helpt ook burgers om beter te beoordelen wat ze zien.
Gevolgen voor politie en publiek
Voor de opsporing bemoeilijken deepfakes het werk. Agenten en analisten moeten meer tijd besteden aan verificatie. Dit kan onderzoeken vertragen en capaciteit opslokken. Tegelijk groeit de noodzaak om beelden snel te duiden richting publiek en media.
Voor burgers is mediawijsheid belangrijker dan ooit. Let op onlogische details, check de herkomst en zoek naar betrouwbare berichtgeving. Deel geen videoās die twijfelachtig zijn, zeker niet als ze personen kunnen schaden. Dat past bij het AVG-principe van dataminimalisatie: verwerk en verspreid zo min mogelijk persoonsgegevens.
Publieke en commerciƫle omroepen in Nederland experimenteren met zichtbare labels en watermerken. Ook nieuwsredacties bouwen protocollen voor deepfake-checks in. Dit kan de schade van misleiding beperken. Maar het lost de bron van het probleem niet op: de snelle verspreiding via sociale media.
Wat nu verandert
De video rond de voortvluchtige drugsbaron laat zien hoe snel AI de informatie-oorlog beĆÆnvloedt. Waar een verklaring vroeger via een advocaat ging, volstaat nu een upload. De combinatie van gratis tools en grote platforms maakt de impact groot. Daardoor worden authenticiteit en context cruciaal.
Voor Nederland is dit ook een test voor de komende AI-regels. Overheid en platforms zullen moeten samenwerken aan labeling, detectie en snelle correcties. De Europese AI-verordening gevolgen overheid worden daarmee concreet in de praktijk. Dat vraagt om extra training, tooling en duidelijke publiekscommunicatie.
Totdat er zekerheid is over de herkomst van de video, blijft terughoudendheid verstandig. Elk gedeeld fragment kan de maker geven wat hij wil: aandacht en verwarring. Voor opsporing, media en publiek is de les dezelfde. Eerst verifiƫren, dan pas verspreiden.
