OpenAI’s ChatGPT kan in sommige gevallen expliciete afbeeldingen en erotiek genereren. De functie zit in de beeldgenerator binnen ChatGPT, die eerder strenger filterde. Dit gebeurt terwijl Europa de AI‑verordening aanscherpt en overheden zich afvragen wat de Europese AI‑verordening gevolgen overheid precies zijn. De ontwikkeling roept direct vragen op over misbruik, toezicht en leeftijdsgrenzen.
OpenAI verschuift grenzen
ChatGPT is een populaire chatbot van OpenAI die ook beelden kan maken met een beeldmodel. Dat model filterde tot nu toe pornografie en naakt grotendeels weg. Nu blijken sommige verzoeken tot expliciet beeld wel door te komen, afhankelijk van de bewoording en context. Dat wijst op ruimer ingestelde of inconsistent werkende filters.
OpenAI wil gebruikers creatieve vrijheid geven, maar wil ook misbruik voorkomen. Het bedrijf hanteert op het moment van schrijven regels tegen minderjarigen, geweld en onvrijwillige seksualiteit. Toch tonen praktijktests aan dat het systeem niet altijd blokkades activeert. Dat gat maakt misbruik, zoals deepfake-porno van bekende personen, aannemelijker.
De timing is belangrijk. Open-source beeldmodellen en buitenlandse apps laten al langer “NSFW”-uitvoer toe. Als ChatGPT daartegenover te streng is, haken gebruikers af. Die marktdruk kan verklaren waarom grenzen verschuiven, ook al vergroot dat juridische en maatschappelijke risico’s.
Filters werken nog wisselend
Inhoudsfilters zijn regels in de software die verzoeken of uitkomsten blokkeren. Zulke filters leunen op trefwoorden, voorbeelddata en veiligheidsregels in het model. Ze werken goed tegen standaardverzoeken, maar kunnen worden omzeild met creatief taalgebruik. Dat geldt zeker bij meertalige of verhullende prompts.
Daarnaast is “context” lastig. Het systeem moet onderscheid maken tussen kunstzinnige naaktfotografie, medische illustraties en pornografie. Modellen maken daarbij fouten, zowel strenger als soepeler dan bedoeld. Dat verklaart waarom sommige expliciete beelden toch verschijnen, terwijl andere onschuldigere verzoeken worden geweigerd.
OpenAI gebruikt doorgaans detectie en feedbackloops om filters te verbeteren. Maar generatieve modellen leren probabilistisch: ze raden het meest waarschijnlijke vervolg. Daardoor blijft er altijd kans op ongewenste uitschieters. Zichtbare en onzichtbare watermerken kunnen helpen bij opsporing achteraf, maar voorkomen het eerste misbruik niet.
EU-regels vragen transparantie
De Europese AI‑verordening (AI Act) verplicht aanbieders en gebruikers van systemen die “deepfakes” maken tot duidelijke labeling. Dat betekent dat synthetische beelden herkenbaar moeten zijn als niet-echt. Ook verwacht de wet dat bedrijven risico’s inventariseren, misbruikscenario’s beperken en klachten snel afhandelen. Voor consumenten schept dit rechten om melding te doen en uitleg te krijgen.
Naast de AI‑verordening geldt de AVG voor persoonsgegevens. Een deepfake met het gelaat van een echte persoon kan persoonsgegevens en soms biometrische data bevatten. Voor verwerking is dan een rechtsgrond nodig en dataminimalisatie is verplicht. Zonder toestemming kan publicatie al snel onrechtmatig zijn.
Platforms in de EU vallen bovendien onder de Digital Services Act (DSA). Zij moeten illegale content, zoals wraakporno of kinderporno, snel verwijderen na melding. Grote platforms hebben extra plichten, waaronder risicobeoordelingen en transparantierapporten. Dat zet druk op diensten die AI‑porno mogelijk maken of verspreiden.
Nederland scherpt strafrecht aan
In Nederland is het delen van seksueel beeldmateriaal zonder toestemming strafbaar. De nieuwe Wet seksuele misdrijven, die op het moment van schrijven in werking is, pakt ook deepfake-varianten aan. Ook zonder fysiek contact kan het maken en verspreiden van zulke beelden strafbaar zijn. Dat biedt slachtoffers meer mogelijkheden om op te treden.
Civielrechtelijk speelt het portretrecht (Auteurswet art. 21). Wie herkenbaar in beeld is, kan publicatie verbieden bij een “redelijk belang”, zoals privacy of reputatie. Bij AI‑porno is dat belang meestal evident. Schadevergoedingen en snelle verwijdering via civiele procedures zijn dan haalbaar.
Voor werkgevers en scholen wordt beleid noodzakelijk. Denk aan duidelijke regels voor gebruik van generatieve tools en sancties bij misbruik. Interne meldpunten en training over online veiligheid helpen escalaties te voorkomen. Ook IT‑blokkades voor bekende NSFW-tools kunnen deel van het pakket zijn.
Maatregelen en leeftijdsgrenzen
OpenAI zegt veiligheid hoog te zetten en werkt met leeftijdsbeperkingen en moderatie. Effectieve leeftijdscontrole blijft echter lastig zonder identiteitscheck. Dat vraagt om afwegingen tussen privacy en bescherming van minderjarigen. Europese toezichthouders letten hier extra op bij generatieve diensten.
Transparantiehulpmiddelen zoals C2PA‑“content credentials” kunnen herkomst van beelden vastleggen. Daarmee kan een redactie, school of platform sneller bepalen of iets door een model is gemaakt. Maar labeling kan worden weggeknipt en is niet waterdicht. Opsporing blijft daarom een mix van techniek, beleid en menselijk toezicht.
Gebruikers spelen zelf ook een rol. Vraag geen beelden aan die iemands grenzen schenden en meld misbruik op het platform. Wie privéfoto’s online deelt, doe dat bij voorkeur versleuteld en met beperkte toegang. Dat verkleint de kans dat materiaal wordt misbruikt voor deepfakes.
Wat dit betekent nu
Voor makers en mediabedrijven is duidelijk: werk met heldere interne richtlijnen. Label synthetische beelden, leg toestemming vast en houd een logboek bij. Dit past binnen de AI Act en maakt compliance aantoonbaar. Het verkleint ook reputatierisico’s.
Voor overheid en toezichthouders ligt de focus op handhaving en voorlichting. Snelle meldkanalen, duidelijke richtsnoeren en samenwerking met platforms zijn nodig. Denk ook aan ondersteuning voor slachtoffers, zoals hulp bij verwijderverzoeken. Zo worden rechten uit AVG en DSA praktisch uitvoerbaar.
OpenAI zal zijn filters moeten aanscherpen en transparanter maken. Heldere documentatie over wat wel en niet wordt toegestaan hoort daarbij. Ook onafhankelijke audits zouden vertrouwen vergroten. Tot die tijd geldt: reken op fouten, en bescherm jezelf en anderen actief.
AI‑porno is synthetisch seksueel beeldmateriaal, gemaakt door algoritmen, soms met het gezicht van echte mensen. Het kan lijken op fotografie of video, maar is digitaal geconstrueerd.
