Het Europees Parlement wil creatief werk beter beschermen tegen generatieve AI. Europarlementariërs presenteerden deze week in Brussel plannen voor strengere regels en handhaving. Het doel is makers zeggenschap en een eerlijke vergoeding te geven, en misleiding door AI-beelden en -stemmen te beperken. De voorstellen sluiten aan op de Europese AI-verordening (AI Act) en raken ook overheden die AI inkopen en inzetten.
Parlement eist betere bescherming
Het Parlement dringt aan op duidelijke regels rond toestemming en betaling wanneer werken van makers worden gebruikt om algoritmen te trainen. Dat geldt voor systemen als ChatGPT van OpenAI, Gemini van Google en beeldgeneratoren zoals Midjourney en Stable Diffusion. Zij leren van grote verzamelingen teksten, beelden en geluiden die vaak van het internet komen. Makers willen controle als hun stijl, stem of beeld herkenbaar wordt gereproduceerd.
De oproep bouwt voort op het EU-auteursrecht en de regels voor text- en datamining. Rechthebbenden kunnen al een “opt-out” instellen, bijvoorbeeld via een machineleesbaar signaal op hun website. Europarlementariërs willen dat platforms en AI-bedrijven die keuze respecteren en actief controleren.
Ook vraagt het Parlement om stevige handhaving en heldere contracten tussen platforms en uitgevers, omroepen en collectieve beheersorganisaties. In Nederland spelen onder meer Buma/Stemra, Sena en Pictoright hierbij een rol. Zo moeten licenties en vergoedingen beter aansluiten op het grootschalige gebruik van digitale archieven door datamodellen.
Transparantie over trainingsdata verplicht
Trainingsdata zijn de voorbeelden waarmee een model leert patronen te herkennen en nieuwe inhoud te maken. Het Parlement wil dat bedrijven openbaar maken welke bronnen zij gebruiken en onder welke licenties dat gebeurt. Dat maakt controle mogelijk en helpt makers hun rechten te handhaven. Zonder inzicht in bronnen is het bijna onmogelijk om misbruik vast te stellen.
De AI-verordening verplicht aanbieders van krachtige generatieve systemen tot extra transparantie. Denk aan samenvattingen van gebruikte datasets en informatie over bekende risico’s en beperkingen. Grote spelers zoals OpenAI, Meta en Google vallen hieronder en moeten documentatie en risicoanalyses leveren. Dit helpt toezichthouders en gebruikers te begrijpen wat een systeem wel en niet kan.
Bedrijven wijzen vaak op bedrijfsgeheimen, maar het Parlement wil een balans tussen transparantie en vertrouwelijkheid. Onafhankelijke audits kunnen daarin voorzien, met toegang voor autoriteiten tot detailgegevens. Zo blijft kerninformatie beschermd, terwijl rechthebbenden en toezichthouders hun werk kunnen doen. Dit sluit aan op het Europese streven naar verantwoorde innovatie.
Generatieve AI is software die zelf tekst, beeld, audio of video kan maken op basis van voorbeelden waarop het is getraind.
Label voor AI-inhoud en deepfakes
Om misleiding te beperken wil het Parlement dat AI-gegenereerde inhoud herkenbaar is. Dat kan via zichtbare labels en onzichtbare watermerken in bestanden. Daarmee wordt duidelijk wanneer een foto, stem of video door een systeem is gemaakt. Dit is belangrijk bij nieuws, verkiezingen en reclames.
De AI-verordening bevat al plichten voor het markeren van synthetische media, ook wel deepfakes. Platforms en uitgevers moeten zulke signalen kunnen lezen en doorgeven aan gebruikers. Dat vraagt om standaarden, zoals content credentials die nu al door een aantal media- en techbedrijven worden getest. Het doel is een keten van herkomstinformatie die niet makkelijk te verwijderen is.
Voor grote online platforms gelden daarnaast zorgplichten onder de Digitale Dienstenverordening. Zij moeten de verspreiding van misleidende AI-inhoud aanpakken en transparant zijn over moderatie. Samen met labeling kan dat het vertrouwen van burgers vergroten. Voor mediabedrijven en overheden schept dit duidelijke richtlijnen voor publicatie en archivering.
Gevolgen voor Nederland en EU
Voor Nederlandse culturele instellingen en uitgevers betekent dit: zorg voor heldere licenties en pas text- en datamining-opt-outs toe waar gewenst. Overheden die AI inkopen, moeten bij aanbestedingen eisen stellen aan transparantie over data en herkomst. Dat verkleint juridische en reputatierisico’s bij het gebruik van algoritmen. Het helpt ook om te voldoen aan de Europese AI-verordening, met directe gevolgen voor overheidstoepassingen.
Voor makers is documentatie cruciaal: registreer werken, gebruik machineleesbare signalen en maak afspraken over digitale archieven. Collectieve beheersorganisaties kunnen modelcontracten en tarieven ontwikkelen voor datagebruik. Dat geeft een basis voor onderhandelingen met AI-bedrijven. Zo komt er minder frictie en meer rechtszekerheid.
Op het moment van schrijven treedt de AI-verordening gefaseerd in werking, met extra plichten voor generatieve systemen in de komende jaren. Nationale toezichthouders gaan dit handhaven, naast de Autoriteit Persoonsgegevens voor AVG-vragen. Transparantie, correcte licenties en duidelijke labels worden daarmee een compliance-noodzaak. Bedrijven die nu al processen en tools inrichten, zijn straks in het voordeel.
