William Shatner waarschuwt voor AI-deepfakes: OpenAI en Meta onder de loep

  • Home
  • >
  • Blog
  • >
  • Nieuws
  • >
  • William Shatner waarschuwt voor AI-deepfakes: OpenAI en Meta onder de loep

Amsterdam, 3 april 2026 13:40 

De acteur William Shatner waarschuwt deze week op X (voorheen Twitter) voor de schaduwkant van kunstmatige intelligentie. Online doken nepberichten op die zijn naam en beeld misbruikten. Hij vraagt om meer alertheid en duidelijke labels. De kwestie raakt direct aan de Europese AI-verordening (AI Act) en de Digital Services Act, die regels stellen aan deepfakes en nepnieuws.

Acteur hekelt AI-nepnieuws

Shatner reageerde op valse posts waarin zijn naam en gezicht werden gebruikt. Hij riep volgers op om beelden en citaten altijd te controleren op herkomst. Ook vroeg hij om heldere aanduidingen wanneer inhoud is gemaakt met een algoritme.

De incidenten tonen hoe makkelijk beroemdheden doelwit zijn. Nepquotes, gefabriceerde interviews en zogenaamd “exclusief” nieuws verspreiden zich snel. Met nagebootste stemmen wordt ontkrachten lastiger, omdat audio overtuigend klinkt.

Platforms als X, Facebook en TikTok hebben meldknoppen en labels voor gemanipuleerde media. Toch glippen valse berichten vaak door, zeker als ze viraal gaan. Moderatie blijft nu vooral reactief en versnipperd.

Deepfakes verspreiden zich razendsnel

Een deepfake is gemanipuleerde of volledig door AI gemaakte media die echt lijkt. Met generatieve modellen gaat dat steeds sneller en goedkoper. Daardoor kunnen nepberichten in uren miljoenen mensen bereiken.

Een deepfake is een beeld, video of geluidsfragment dat met algoritmen is gemanipuleerd of volledig is gegenereerd, zodat het echt lijkt terwijl het dat niet is.

Tools als Midjourney en Stable Diffusion maken fotorealistische beelden. Video kan met systemen zoals Sora worden gegenereerd. Voor stemklonen worden diensten als ElevenLabs gebruikt.

Er zijn ook tegenmaatregelen. Via de C2PA-standaard, gesteund door onder meer Adobe, Microsoft en de BBC, kunnen makers “Content Credentials” toevoegen die de herkomst vastleggen. Niet elke app ondersteunt dit, en labels kunnen onderweg verdwijnen.

Automatische detectors bestaan, maar zijn niet waterdicht. Ze geven soms valse waarschuwingen of missen slimme bewerkingen. Daarom blijft broncontrole door gebruikers en redacties essentieel.

Europese regels vragen labeling

De Europese AI-verordening verplicht aanbieders en gebruikers om deepfakes duidelijk als zodanig te labelen. Dat geldt voor door modellen gegenereerde of ingrijpend gemanipuleerde content. Er zijn beperkte uitzonderingen, bijvoorbeeld voor rechtmatige satire of opsporing, met aanvullende waarborgen.

De Digital Services Act verplicht grote platforms (VLOP’s) als X, Meta en TikTok om systemische risico’s rond desinformatie te beperken. Zij moeten transparanter modereren en effectieve melding-en-actieprocessen inrichten. De Europese Commissie houdt toezicht en kan ingrijpen.

Voor Nederlandse overheden, media en campagnes betekent dit dat AI-gebruik in publiekscommunicatie helder moet worden gemeld. Dat helpt misleiding te voorkomen en maakt controleerbaar wie iets publiceert. Op het moment van schrijven werkt de Autoriteit Consument & Markt als nationale DSA-coördinator mee aan handhaving.

Bij ernstige overtredingen kunnen hoge boetes volgen. Onder de DSA kan dat tot 6% van de wereldwijde omzet zijn. Onder de AI Act variëren boetes per type inbreuk, met zwaardere straffen voor verboden toepassingen.

Portret- en stemrecht spelen mee

Gezichts- en stemgegevens vallen onder de AVG als biometrische data. Verwerking vraagt een rechtsgrond en vaak expliciete toestemming. Zonder die toestemming kan stem- of gezichtsklonen onrechtmatig zijn.

In Nederland biedt het portretrecht bescherming tegen ongewenst gebruik van iemands gezicht of naam. Ook misleidende reclame met een valse “ambassadeur” kan worden aangepakt. Consumenten hebben dan recht op correctie en verwijdering.

Handhaving is lastig als makers anoniem zijn of buiten de EU zitten. Snelle verwijdering vraagt samenwerking tussen platforms en rechthebbenden. Notice-and-action onder de DSA moet dit proces versnellen.

Bewijs vastleggen is belangrijk bij klachten. Sla urls, screenshots en metadata op. Dat vergroot de kans op effectieve verwijdering en herstel.

Praktische stappen voor gebruikers

Controleer altijd de herkomst van opvallend nieuws. Klik door naar de eerste bron en let op datum en context. Deel niets dat je niet kunt verifiëren.

Zoek naar herkomstlabels zoals Content Credentials. Gebruik omgekeerd zoeken voor afbeeldingen of audiofragmenten. Twijfel je, meld het bericht bij het platform.

Volg geverifieerde kanalen van betrokken personen en merken. Daar verschijnt vaak snel een weerwoord bij nepberichten. Wees extra kritisch bij sensationele claims over bekende namen.

Makers en uitgevers kunnen zelf helpen door AI-gebruik te vermelden en ruwe bestanden veilig te bewaren. Dat ondersteunt naleving van de AI-verordening. Het maakt rectificatie en uitleg richting publiek eenvoudiger.


Over Dave

Hoi, ik ben Dave – schrijver, onderzoeker en nieuwsgierige geest achter AIInsiders.nl. Ik hou me bezig met de manier waarop technologie ons leven verandert, en vooral: hoe we dat een beetje kunnen bijbenen. Van slimme tools tot digitale trends, ik duik graag in de wereld achter de schermen.

Mijn stijl? Lekker helder, soms kritisch, altijd eerlijk. Geen onnodig jargon of overdreven hype, maar praktische inzichten waar je echt iets aan hebt. AI is niet eng of magisch – het is interessant, en ik help je graag om dat te zien.

{"email":"Email address invalid","url":"Website address invalid","required":"Required field missing"}

Elke dag het laatste AI-nieuws ontvangen?

Schrijf je in voor onze nieuwsbrief en ontvang iedere dag het laatste AI-nieuws. Zo weet je zeker dat je altijd op de hoogte bent van updates en meer.

Misschien ook interessant

>