Het Witte Huis ligt onder vuur nadat op sociale media een door AI gemaakte foto van een vrouw werd gedeeld. De geportretteerde vrouw zegt nu dat zij doodsbedreigingen heeft gekregen. Het bericht moest een politieke boodschap versterken, maar ontketende juist discussie over misleiding en verantwoordelijkheid. De kwestie voedt het debat over de Europese AI-verordening en de gevolgen voor overheidscommunicatie.
Witte Huis deelde AI-beeld
In een recente post op sociale media gebruikte het Witte Huis een door generatieve kunstmatige intelligentie gemaakte foto. Generatieve AI is software die zelf beelden of teksten kan maken op basis van voorbeelden. De afbeelding toonde een vrouw als illustratie van een beleidsboodschap. Niet is bekendgemaakt met welke tool het beeld is gemaakt.
De publicatie leidde snel tot kritiek, vooral omdat het niet duidelijk gelabeld was als synthetisch. Zonder label kunnen burgers denken dat het om een echte persoon of gebeurtenis gaat. Dat risico is groter wanneer een overheid het beeld verspreidt. Vertrouwen in officiƫle communicatie kan zo afbrokkelen.
Transparantie over AI-gebruik is bij publieke communicatie cruciaal. Duidelijk vermelden dat een beeld gecreƫerd is door een algoritme helpt misverstanden voorkomen. Ook maakt het debat over beleid dan minder kans om te ontsporen. Dit incident laat zien dat die basisregel niet altijd wordt gevolgd.
Vrouw meldt bedreigingen
De vrouw die lijkt op de AI-figuur zegt dat zij niets met het bericht te maken heeft. Toch werd zij online aangesproken alsof zij de persoon uit de foto was. Daarna kreeg zij berichten met beledigingen en intimidatie. Volgens haar namen de bedreigingen toe toen het bericht viral ging.
āIk heb doodsbedreigingen gekregen.ā
Zulke situaties tonen hoe een synthetisch beeld echte mensen kan raken. Een gecreƫerd gezicht kan lijken op iemand die bestaat, met reputatieschade tot gevolg. Het is voor betrokkenen vaak lastig om onduidelijkheid weg te nemen. Schadebeperking kost tijd, terwijl online drukte snel oploopt.
Voor overheden en grote platforms ligt hier een zorgplicht. Snel en zichtbaar corrigeren, en waar nodig beelden verwijderen, kan herhaling van schade beperken. Heldere klachtenprocessen helpen slachtoffers sneller gehoord te worden. Dat geldt zeker als het beeld in officiƫle kanalen is gedeeld.
AI-verordening: gevolgen overheid
De Europese AI-verordening (AI Act) stelt transparantie-eisen voor zogeheten deepfakes en andere synthetische media. Makers moeten duidelijk aangeven dat het om door AI gegenereerde of gemanipuleerde inhoud gaat. Dat geldt ook wanneer overheden dergelijke beelden verspreiden. De regel moet misleiding en verwarring bij burgers voorkomen.
Ook het nieuwe EU-kader voor politieke advertenties verplicht tot zichtbare labels bij bewerkt of met AI gemaakt materiaal. Partijen en overheidsinstellingen die campagne-informatie delen, moeten daar rekening mee houden. Onjuiste of ontbrekende labeling kan tot sancties leiden. Dit vraagt om strikte werkprocessen bij communicatieafdelingen.
Daarnaast speelt de AVG wanneer personen identificeerbaar zijn of kunnen worden. Dataminimalisatie en zorgvuldige afweging van risicoās zijn dan verplicht. Zelfs bij synthetische beelden kan een gelijkenis met echte mensen problemen opleveren. Impactanalyses en duidelijke verantwoording zijn daarom noodzakelijk.
Platforms en technische hulp
Grote platforms zoals Meta, YouTube en TikTok voeren āMade with AIā-labels in. Die labels zijn nuttig, maar werken niet altijd consequent bij edits of reposts. Een eigen, zichtbare vermelding door de afzender blijft dus nodig. Overheden kunnen dit standaardiseren in hun huisstijl.
Technisch zijn er hulpmiddelen zoals C2PA-watermerken voor herkomst en bewerkingsgeschiedenis. Zulke provenance-tags helpen hergebruikers en journalisten om herkomst te verifiƫren. Ze zijn geen wondermiddel, want watermerken kunnen verdwijnen bij knippen en plakken. Maar als basislaag verhogen ze de controleerbaarheid.
Heldere alt-teksten en bestandsbijschriften dragen ook bij aan transparantie. Ze maken in ƩƩn oogopslag duidelijk dat het om een AI-beeld gaat. Dat is belangrijk voor toegankelijkheid en voor snelle factchecking. Zo wordt misinterpretatie beperkt voordat die ontstaat.
Lessen voor Nederland en EU
Nederlandse overheden doen er goed aan AI-visuals niet te gebruiken voor het verbeelden van echte personen of situaties. Kies waar mogelijk voor echte fotografie of gebruik generieke illustraties met expliciet label. Is AI toch nodig, maak dan de keuze, het doel en de gebruikte tool zichtbaar. Dat vergroot vertrouwen en voorkomt misleiding.
Stel interne regels op die aansluiten bij de AI Act en de AVG. Denk aan vaste labels, C2PA-toepassing en een snelle correctieroutine bij fouten. Train teams op risicoās van synthetische media en gelijkenis met echte personen. Leg ook vast wanneer AI-beelden niet zijn toegestaan.
Tot slot: houd rekening met journalistieke en maatschappelijke impact. Een onduidelijk AI-beeld kan de discussie over beleid overschaduwen. Transparantie kost weinig, maar voorkomt grote schade. Deze casus onderstreept dat publieke communicatie niet zonder heldere AI-etikettering kan.
