Emanuel Scheek, innovatie-expert, waarschuwt voor snel groeiende juridische risico’s rond kunstmatige intelligentie en deepfakes. Hij ziet dat generatieve systemen als OpenAI Sora, Midjourney en Stable Diffusion misleiding makkelijker maken. De oproep is relevant voor Suriname én voor Nederland en Europa. Het raakt direct aan de Europese AI-verordening en de Europese AI-verordening gevolgen overheid.
Deepfakes vergroten aansprakelijkheid
Deepfakes zijn nepbeelden, stemmen of video’s die met een algoritme zijn gemaakt en echt lijken. Ze kunnen reputatieschade, fraude of chantage veroorzaken. Daardoor nemen risico’s op smaad, portretrecht en schadeclaims toe. Scheek benadrukt dat die risico’s niet alleen voor techbedrijven gelden, maar ook voor organisaties die met zulke inhoud te maken krijgen.
Generatieve systemen maken het steeds eenvoudiger om overtuigende content te bouwen. OpenAI Sora kan realistische video’s genereren, terwijl Midjourney en Stable Diffusion fotobeelden maken. Dergelijke tools verlagen de drempel voor misleiding. Tegelijk blijft betrouwbare detectie lastig, zeker na knippen, comprimeren of opnieuw uploaden.
Platformen leggen vaak de verantwoordelijkheid bij de uploader. Maar merken, media en overheden kunnen alsnog juridische gevolgen voelen als zij deepfakes delen of ernaar verwijzen. Denk aan onrechtmatige publicatie of nalatigheid bij factchecking. Een streng protocol voor verificatie is daarom nodig.
Een deepfake is synthetische media die als echt overkomt, maar niet is wat het lijkt te zijn.
AVG beperkt datascraping
Wie AI traint of gebruikt met persoonsgegevens krijgt te maken met de AVG, de Europese privacywet. Die vraagt om een geldige grondslag, dataminimalisatie en duidelijke doelen. Ook is een privacy-impactanalyse verstandig zodra er gevoelige data of grootschalige monitoring speelt. Zonder deze stappen lopen organisaties risico op sancties door de Autoriteit Persoonsgegevens.
Gezichts- en stemgegevens kunnen biometrische data zijn. Dat valt onder bijzondere persoonsgegevens met extra strenge regels. Toestemming moet vrij, specifiek en geïnformeerd zijn. Een onduidelijke disclaimer is daarvoor niet genoeg.
Bedrijven die prompts, datasets of klantmateriaal in cloudmodellen stoppen, moeten afspraken vastleggen. Denk aan versleuteling, bewaartermijnen en begrenzing van hergebruik voor modeltraining. Leveranciers als Microsoft Azure, Google Cloud en OpenAI bieden instellingen, maar de verantwoordelijkheid blijft bij de verwerkingsverantwoordelijke. Dit vraagt actief toezicht op leveranciers en logs.
Europese AI-verordening gevolgen overheid
De Europese AI-verordening (AI Act) verplicht tot transparantie bij synthetische media. Wie deepfakes publiceert, moet dit duidelijk labelen. Grote modelbouwers van zogeheten general-purpose AI, zoals OpenAI, Google en Meta, krijgen plichten voor documentatie en auteursrechtbeleid. Dit raakt ook distributeurs en professionele gebruikers van die modellen.
Voor de overheid gelden extra waarborgen als AI beslissingen ondersteunt. Die systemen vallen vaak in de hoge-risicoklasse met eisen aan risicobeheer, datakwaliteit en menselijk toezicht. Communicatiediensten van de overheid moeten synthetische media herkenbaar maken en archiveren. Dit verkleint de kans op verwarring en versterkt vertrouwen.
Daarnaast verplicht de Digital Services Act grote platforms om misleiding te beperken. Markeringen, downranking en snelle verwijdering bij schade horen daarbij. Tijdens gevoelige periodes, zoals verkiezingen, kan de Europese Commissie aanvullende maatregelen vragen. Dat maakt voorbereiding en rapportage voor organisaties onmisbaar.
Bedrijven vragen om protocollen
Organisaties hebben nu al praktische middelen tegen deepfake-risico’s. Een duidelijk verificatieproces voor beeld, audio en video is stap één. Leg vast wie controleert, welke tools worden gebruikt en hoe snel wordt ingegrepen. Koppel dit aan een incidentplan voor snelle rectificatie en verwijderverzoeken.
Techniek kan helpen, maar is niet zaligmakend. Watermerken zoals Google DeepMind SynthID en herkomstlabels via C2PA/Content Credentials (Adobe, Microsoft, Nikon) maken oorsprong inzichtelijk. Na bewerking of knippen kan een markering verdwijnen, dus combineer meerdere checks. Train teams in communicatie, crisisrespons en basiskennis van AI.
Contracten met bureaus, leveranciers en makers verdienen een update. Neem garanties op over rechten, privacy en het verbod op ongeoorloofd gebruik van modellen. Vraag om logbestanden en modelversies als bewijs. Zo staat u sterker bij claims of een audit.
Maatschappelijke impact groeit snel
Deepfakes raken democratie, media en onderwijs. In verkiezingsperioden kunnen nepvideo’s en gemanipuleerde audio kiezers sturen. Nieuwsredacties en factcheckers krijgen meer werkdruk en tijdsdruk. Tegelijk groeit de behoefte aan mediawijsheid bij burgers en aan heldere regels voor platforms.
In Nederland houden de Autoriteit Persoonsgegevens en het Commissariaat voor de Media toezicht op delen van dit speelveld. De AI Act en de Digital Services Act zetten daar Europese kaders bovenop. Samen moeten zij misleiding beperken zonder legitieme innovatie te blokkeren. Dat vraagt om duidelijke handhaving en bruikbare richtsnoeren voor kleine en grote organisaties.
Scheeks waarschuwing past in deze ontwikkeling. Juridische risico’s nemen toe naarmate modellen krachtiger en toegankelijker worden. Heldere labeling, privacy by design en verantwoord gebruik van datasets zijn nu randvoorwaardelijk. Wie dit goed regelt, verkleint schade voor burgers en organisatie en voldoet sneller aan nieuwe regels.
