Een carnavalsgroep uit Aalst heeft een muzikale parodie gemaakt met een door AI nagebootste stem van zangeres Pommelien Thijs. In het nummer zegt “Thijs” dat ze “alleen de sfeer snuift”, als knipoog naar geruchten over drugs. De act speelde zich af rond het Aalst Carnaval, waar satire en spot traditie zijn. De inzet van kunstmatige intelligentie roept vragen op over toestemming, misleiding en regels uit de Europese AI‑verordening en de AVG.
AI-parodie lokt debat uit
De groep gebruikte een stemkloningsmodel, een algoritme dat iemands stem kan nabootsen op basis van audiofragmenten. Het doel was humor: het lied laat de bekende Vlaamse artiest zogenaamd druggebruik ontkennen. Er is geen publieke aanwijzing dat de zangeres toestemming gaf voor het gebruik van haar stemgeluid. Daarmee schuurt de act tegen de grenzen van parodie en persoonsbescherming.
Het gaat om synthetische audio, ook wel deepfake genoemd. Dat is digitaal gemanipuleerde of volledig door een model gemaakte media die echt lijken. Omdat het hier om een bekende persoon gaat, kan het publiek de grap voor waarheid aanzien. Dat vergroot reputatierisico’s voor de artiest.
Welke tool is gebruikt, is niet bekendgemaakt. Vergelijkbare commerciële diensten zijn bijvoorbeeld ElevenLabs en PlayHT, en er bestaan open-sourceprojecten zoals RVC of Tortoise TTS. Zulke systemen zijn laagdrempelig te bedienen en leveren steeds realistischer stemmen. Dat verklaart waarom deze techniek snel zijn weg vindt naar evenementen en sociale media.
Deepfakes vragen om labels
De Europese AI‑verordening (AI Act) bevat transparantieplichten voor synthetische media. Makers en verspreiders moeten het publiek duidelijk maken dat het om gegenereerde of gemanipuleerde audio of video gaat. Op het moment van schrijven wordt deze plicht gefaseerd ingevoerd, met verschillende deadlines per onderdeel. Voor satire en kunst kan ruimte bestaan, maar duidelijkheid richting het publiek blijft de norm.
Een eenvoudige aankondiging op het podium of een zichtbaar label in de video kan al veel verwarring voorkomen. Dat verkleint de kans dat fragmenten los van hun context verder verspreiden. Zeker bij korte clips op TikTok of Reels ontbreekt vaak uitleg. Dan is een hoorbaar of zichtbaar “AI‑stem”‑label nuttig.
Deepfake: audio of video die door algoritmen is aangepast of nagemaakt, waardoor het lijkt alsof iemand iets zegt of doet wat niet echt is.
Voor organisatoren is dit ook een risicoafweging. Zonder label kunnen klachten of juridische stappen volgen, zelfs als de bedoeling humor is. Transparantie helpt tevens bij moderatie door platforms, die aparte regels voor AI‑content hanteren. Zo voorkomt men dat materiaal offline wordt gehaald of bereik verliest.
AVG en portretrecht grenzen
Een stem is persoonlijke data, want zij kan een persoon identificeren. Onder de AVG is voor verwerking van zulke data een rechtsgrond nodig, zoals toestemming of een aantoonbaar gerechtvaardigd belang. Voor kunst en journalistiek bestaan in Europa uitzonderingen, maar die zijn niet onbeperkt. Organisatoren moeten belangen afwegen en waar mogelijk dataminimalisatie toepassen.
In België en Nederland beschermen portret- en persoonlijkheidsrechten ook de commerciële en morele belangen van bekende personen. Iemand herkenbaar neerzetten in een potentieel schadelijke context kan onrechtmatig zijn. Bij satire weegt de vrijheid van expressie zwaar, maar misleiding en reputatieschade tellen mee. Een disclaimer en het vermijden van lasterlijke suggesties maken het risico kleiner.
Daarnaast kunnen stemkloners onbedoeld biometrische kenmerken verwerken. Biometrische gegevens vereisen extra zorg en soms een strengere basis. Wie zelf audio opneemt of uploads gebruikt, moet die data beveiligen en niet langer bewaren dan nodig. Dat zijn kernvereisten zoals dataminimalisatie en passende beveiliging uit de AVG.
Platforms scherpen regels aan
Grote platforms als YouTube, TikTok en Instagram vragen inmiddels om labeling van AI‑gemaakte of sterk gemanipuleerde media. Niet naleven kan leiden tot waarschuwingen, beperkingen of verwijdering. Deze regels sluiten aan op de Digital Services Act (DSA), die zeer grote platforms verplicht om misleiding en deepfake‑risico’s te beperken. Daardoor is de kans groter dat ongelabelde parodieën worden ingedamd.
Voor organisatoren van evenementen is het verstandig om platformbeleid vooraf te checken. Een heldere beschrijving en een label “AI‑gegenereerde stem” voorkomen discussies. Ook kan men bij uploaden extra context meegeven in de caption. Zo blijft het satirische karakter zichtbaar buiten de zaal.
Moderatie werkt niet overal gelijk. Clips kunnen via knip‑en‑plak zonder label opduiken op andere kanalen. Makers die origineel materiaal delen met duidelijke signalering zetten de toon voor hergebruik. Dat beperkt de kans op verspreiding zonder context.
Carnavalsvrijheid is niet onbeperkt
Aalst Carnaval staat bekend om scherpe satire en het opzoeken van grenzen. Die traditie blijft, maar met AI verschuift de grens technisch gezien snel. Een geloofwaardige nagemaakte stem of foto kan sterker raken dan een klassieke karikatuur. Daardoor veranderen ook de verantwoordelijkheden van makers en verenigingen.
De maatschappelijke impact reikt verder dan een zaal met publiek. Fragmenten leven online door, vaak los van het carnavalsdecor. Wie het fragment later ziet, kan de grap missen en het als feit opvatten. Dat vergroot de kans op misverstanden en klachten.
Juist daarom vragen toezichthouders om transparantie en zorgvuldigheid. Een parodie mag scherp zijn, maar moet herkenbaar blijven als fictie. Met AI is die grens makkelijker te overschrijden zonder dat het zo bedoeld is. Duidelijke signalering is dan een praktisch en juridisch vangnet.
Wat makers nu moeten doen
Label altijd dat audio of video door AI is gemaakt of aangepast. Vraag toestemming als een echte persoon centraal staat, zeker bij commerciële exploitatie. Beperk de inhoud: vermijd suggesties die kunnen schaden, zoals ongefundeerde verwijzingen naar strafbare feiten. Documenteer keuze en afweging, voor het geval er vragen komen.
Kies tools die transparantie ondersteunen, zoals watermerken of hoorbare meldingen. Bewaar bronmateriaal niet langer dan nodig en versleutel bestanden. Overweeg alternatieven: gebruik een generieke, niet-herkenbare AI‑stem of een menselijke imitator met een duidelijke disclaimer. Dat behoudt de grap en verkleint het risico.
Houd rekening met komende regels uit de AI‑verordening over deepfake‑transparantie. Overheden en organisatoren doen er goed aan dit nu al in hun huisregels op te nemen. Dat helpt bij inkoop, training van vrijwilligers en communicatie met het publiek. Zo blijft satire mogelijk binnen duidelijke grenzen en met respect voor personen.
