De dochter van acteur en regisseur Robert Redford klaagt over valse AI-uitvaarten die online rondgaan. Op sociale media doken opnieuw videoās op die ten onrechte zijn overlijden en āuitvaartā tonen. Dat gebeurt met door algoritmen gemaakte beelden en stemmen, bedoeld om clicks te trekken. De discussie raakt ook aan de Europese AI-verordening en de gevolgen voor overheid en platforms.
Valse rouwcontent overspoelt platforms
Op YouTube (Google), Facebook en Instagram (Meta) en TikTok (ByteDance) circuleren videoās die lijken op rouwreportages. Ze gebruiken synthetische stemmen en gegenereerde beelden om een geloofwaardig verhaal te maken. De naam en het gezicht van een bekend persoon trekken aandacht. Zo ontstaat een lucratief model rond advertenties en donaties.
Generatieve systemen maken dit eenvoudig. Tekst-naar-spraakdiensten zoals ElevenLabs, Azure AI Speech (Microsoft) en Google Text-to-Speech kunnen stemmen nabootsen. Beeld- en videomodellen zoals Midjourney, Runway en Pika leveren overtuigende visuals. Zonder redactionele controle verspreiden deze producties zich snel.
De familie van Redford noemt de videoās misleidend en schadelijk. Het publiek krijgt een vals beeld van wat er is gebeurd. Nabestaanden moeten telkens uitleggen dat het bericht niet klopt. Dat veroorzaakt extra stress in een toch al gevoelig domein.
Deepfakes zijn synthetische beelden, stemmen of teksten die echt lijken, maar door modellen zijn gemaakt.
Emotionele schade en misleiding
Valse rouwcontent treft in de eerste plaats familie en vrienden. Zij zien intieme momenten verknipt en vervormd, zonder toestemming. De emotionele schade is lastig te meten. Maar de impact is direct en persoonlijk.
Er is ook maatschappelijke schade. Veel mensen nemen rouwberichten voor waar aan, zeker als het er professioneel uitziet. Dat ondermijnt vertrouwen in nieuws en in zoekresultaten. Scammers haken soms in met nepdonaties of verkoop van āherdenkingsproductenā.
De videoās spelen met herkenbare symbolen, zoals kist, bloemen en preek. Een algoritme legt daarbij een kalme, autoritaire stem over het beeld. Voor kijkers is het moeilijk te zien dat het nep is. Zonder duidelijke bron of persvermelding blijft twijfel hangen.
AI-verordening eist transparantie
De Europese AI-verordening (AI Act) schrijft transparantie voor bij synthetische media, inclusief deepfakes. Op het moment van schrijven gaan de verplichtingen gefaseerd in vanaf 2025 en 2026. Makers en distributeurs moeten duidelijk aangeven dat de inhoud door modellen is gegenereerd. Dat moet misleiding voorkomen.
Daarnaast geldt de Digital Services Act (DSA) voor grote platforms als Meta, Google en TikTok. Zij moeten systemische risicoās aanpakken, zoals desinformatie en manipulatie. Rouw-deepfakes vallen daar in de praktijk onder. Platformen moeten daarom detectie, moderatie en gebruikerswaarschuwingen verbeteren.
De AVG speelt mee zodra persoonlijke gegevens worden gebruikt, zoals naam, beeld of stem. Voor verwerking is een rechtsgrond nodig, bijvoorbeeld toestemming of een gerechtvaardigd belang. Bij nepuitvaarten is dat belang moeilijk te verdedigen. Overtredingen kunnen leiden tot klachten en boetes.
Platforms moeten concreet ingrijpen
Er zijn technische middelen om herkomst te tonen. Het C2PA-label, ontwikkeld door onder meer Adobe, geeft een soort digitaal āingrediĆ«ntenlijstjeā bij beeld en geluid. Platforms kunnen dit label zichtbaar maken en prioriteit geven aan gelabelde content. Dat helpt gebruikers om context te zien.
Detectie alleen is niet genoeg. Moderatie-teams moeten duidelijke regels krijgen voor rouwdeepfakes en nepobituaries. Waarschuwingen en tussenpaginaās kunnen voorkomen dat mensen misleidende videoās direct delen. Ook moet rapporteren makkelijker en sneller worden afgehandeld.
Grote modelaanbieders zoals OpenAI, Google DeepMind en Anthropic hebben op het moment van schrijven beleid voor misbruik. Zij kunnen genereren beperken rond gevoelige themaās zoals dood en ziekte. Ook kunnen zij watermerken en traceerbare metadata verplicht stellen. Samenwerking met platforms versnelt dat effect.
Juridische grenzen in Nederland
In Nederland spelen naast de AVG ook portretrecht en eer en goede naam. Ongeoorloofd gebruik van iemands gezicht of stem kan onrechtmatig zijn. Nabestaanden kunnen optreden tegen misleidende of grievende beelden. De Autoriteit Persoonsgegevens kan klachten onderzoeken bij datamisbruik.
Voor redacties en overheden zijn de regels helder. De Europese AI-verordening gevolgen overheid betekenen dat communicatie met synthetische media duidelijk gelabeld moet zijn. Overheidsorganisaties moeten daarnaast dataminimalisatie toepassen en herleidbare personen afschermen. Dat voorkomt verwarring en klachten.
Consumenten kunnen zichzelf beschermen met simpele checks. Kijk naar de bron en publicatiedatum, en zoek bevestiging bij betrouwbare nieuwsmedia. Meld nepvideoās direct bij het platform. Twijfel je toch, deel dan niet.
Wat er nu verandert
De oproep van Redfords dochter legt druk op platforms om sneller te handelen. Verwacht strengere labels en meer verwijderingen van rouwdeepfakes. Ook adverteerders zullen minder willen staan naast dit type content. Dat haalt de financiƫle prikkel weg.
Regelgevers in de EU krijgen hiermee een concreet handhavingsdossier. Toezichthouders kunnen transparantieplichten en DSA-maatregelen toetsen. Boetes of bindende aanwijzingen zijn mogelijk als platforms tekortschieten. Dat zet de standaard voor andere markten.
Voor modelbouwers betekent dit meer controle op uitkomsten. Veiligheidsfilters moeten beter herkennen wanneer rouw en overlijden worden misbruikt. Open methodes voor herkomst, zoals C2PA, worden waarschijnlijk de norm. Zo wordt het voor makers lastiger om het publiek te misleiden.
