Een AI-bewerkt portret van zangeres Dolly Parton gaat rond op sociale media. Het beeld laat zien hoe zij er zonder cosmetische ingrepen uit zou zien. De montage verscheen deze week op Nederlandse platforms en internationale feeds. De discussie raakt aan techniek, toestemming en regels, zoals de Europese AI-verordening en de AVG.
AI-portret leidt tot debat
Het portret trekt veel aandacht omdat het inspeelt op nieuwsgierigheid naar het āechteā uiterlijk van een bekende persoon. Tegelijk roept het vragen op over wat feit en fictie is. Voor veel kijkers is niet meteen duidelijk dat het om een bewerkt of synthetisch beeld gaat.
Bij beroemdheden ligt de drempel voor zulke beelden laag, omdat er veel fotoās beschikbaar zijn. Dat maakt het voor algoritmen makkelijker om geloofwaardige varianten te maken. Het risico op verwarring of reputatieschade groeit daardoor.
Dolly Parton is in interviews open geweest over cosmetische ingrepen. Een hypothetisch ānatuurlijkā portret kan daardoor extra beladen voelen. Het schuurt tussen nieuwsgierigheid, entertainment en de grenzen van iemands portretrecht.
Techniek is toegankelijker dan ooit
Generatieve AI kan nieuwe beelden maken of bestaande fotoās aanpassen. Dat gebeurt met modellen die patronen in miljoenen plaatjes hebben geleerd. In gewone taal: het systeem raadt op basis van voorbeelden hoe een gezicht er anders uit kan zien.
Veelgebruikte tools zijn Midjourney, Stable Diffusion van Stability AI en Adobe Firefly in Photoshop. Apps als FaceApp doen leeftijds- en stijlfilters met ƩƩn druk op de knop. Welke tool voor dit specifieke portret is gebruikt, is op het moment van schrijven niet bekend.
De drempel om zulke bewerkingen te maken is laag geworden. Gebruikers voeren een korte tekst in, of selecteren delen van een foto, en het systeem vult de rest in. Dat maakt creatie sneller, maar ook controle lastiger.
Een deepfake is beeld, video of audio die met kunstmatige intelligentie is gemaakt of ingrijpend bewerkt, zodat het echt lijkt maar het niet is.
Transparantie straks verplicht
De Europese AI-verordening verplicht dat synthetische media herkenbaar zijn als zodanig. Voor deepfakes geldt een transparantieplicht: makers en verspreiders moeten duidelijk maken dat het om AI-gegenereerde of AI-bewerkte inhoud gaat. Deze regels treden gefaseerd in werking tussen 2025 en 2026, op het moment van schrijven.
Ook de AVG is relevant, omdat iemands gezicht persoonsgegevens zijn. Verwerken daarvan vraagt een rechtsgrond, zoals toestemming of een journalistieke uitzondering. In Nederland speelt daarnaast het portretrecht uit de Auteurswet, dat ongewenst commercieel gebruik kan begrenzen.
Voor redacties en platforms betekent dit extra zorgplichten. Denk aan duidelijke bijschriften en technische labels. Wie het nalaat, kan juridisch en reputatierisico lopen.
Risicoās voor makers en publiek
Onjuiste context bij AI-beelden kan misleiding veroorzaken. Een hypothetisch portret kan door anderen worden gedeeld als āwareā representatie. Dat schaadt het publiek debat en ondermijnt vertrouwen in media.
Voor artiesten spelen extra zorgen mee. Ongewenste bewerkingen van het uiterlijk kunnen hun imago beĆÆnvloeden of leiden tot pesterijen. Bij gevoelige onderwerpen, zoals leeftijd of uiterlijk, is de kans op schade groter.
Er is ook een maatschappelijke dimensie. Deze beelden kunnen onrealistische schoonheidsnormen versterken. Dat treft vooral jongeren die vaak met filters en bewerkt beeld opgroeien.
Media kunnen nu al handelen
Redacties kunnen AI-beelden standaard labelen en de gebruikte tool noemen, waar bekend. Heldere bijschriften en alt-teksten helpen misverstanden te voorkomen. Het opslaan van prompts en bewerkingsstappen maakt controle achteraf mogelijk.
Technische maatregelen zijn beschikbaar. Met Content Credentials (C2PA), gesteund door onder meer Adobe, Microsoft en de BBC, kan herkomstinformatie in bestanden worden vastgelegd. Platforms kunnen die labels tonen, zodat kijkers zien dat een beeld is bewerkt.
Tot slot is het goed om toestemming en context mee te wegen, zeker bij portretten van echte personen. Vraag waar mogelijk instemming of kies voor illustraties die geen echte personen nabootsen. Dat past bij de geest van de Europese AI-verordening en vermindert risicoās voor makers en publiek.
