In de Verenigde Staten zorgde een video van de immigratiedienst ICE voor verwarring. Kijkers dachten dat het om AI-beelden ging, omdat een kleine dinosaurus in beeld bewoog. Onderzoek van beeldexperts laat zien dat de opname echt is en de dino een gewoon bureauspeeltje is. De ophef sluit aan bij discussies over deepfakes en de Europese AI-verordening, en wat die betekent voor overheden die video delen online (Europese AI-verordening gevolgen overheid).
Video lijkt AI, is echt
De korte clip toont een ICE-agent achter een bureau. In de hoek staat een plastic dinosaurus die zachtjes wiebelt. Op sociale media ontstond het idee dat de hele video door een algoritme was gemaakt.
Beeldanalisten vinden daar geen bewijs voor. De belichting, schaduwen en reflecties kloppen met een echte opname. De beweging van de dino past bij een fysiek object dat reageert op trillingen of luchtstroom.
De montage is wel strak en het beeld is sterk gecomprimeerd. Dat maakt details vaag en gezichten wat āgladā. Zulke compressie is standaard bij platformen als X, TikTok en Instagram.
Dino en compressie misleiden
Veel kijkers zagen āAI-foutenā in het filmpje. Denk aan zachte randen, kleine vervormingen en een onnatuurlijke huidtextuur. Dat zijn ook typische effecten van videocompressie, waarbij software beeldinformatie weglaat om het bestand kleiner te maken.
Een wiebelend speelding kan extra vreemd lijken door de zogeheten rolling shutter. Dat is een camera-effect waarbij snelle bewegingen licht verschuiven per beeldlijn. Het resultaat oogt voor sommigen alsof het synthetisch is gemaakt.
Ook diepte-van-veld speelt mee. Een lens die op het gezicht scherpstelt, laat objecten op de achtergrond onscherp āsmerenā. Samen met compressie wekt dit de indruk van AI, terwijl het gewone cameratechniek is.
Een deepfake is een synthetische video die echt lijkt, maar door kunstmatige intelligentie is gegenereerd of zwaar is gemanipuleerd.
Platforms en moderatie in EU
Discussies over āis dit AI?ā ontstaan vaak op X, TikTok en YouTube. Deze platformen verkleinen videoās en voegen eigen filters toe. Daardoor nemen artefacten toe, wat bronanalyse bemoeilijkt.
In de EU vallen grote platformen onder de Digital Services Act (DSA). Zij moeten risicoās rond desinformatie beperken en transparanter zijn over moderatie. Dat omvat ook beleid voor synthetische media en misleidende labels.
Voor Europese gebruikers betekent dit meer context en betere meldopties. Toch blijft bronverificatie lastig bij korte, gedeelde clips. Openbare instellingen hebben daarom een grotere bewijs- en zorgplicht.
AI-verordening eist labeling
De Europese AI-verordening (AI Act) verplicht aanbieders om deepfakes duidelijk te labelen. Dat geldt wanneer content synthetisch is of ingrijpend is gemanipuleerd. Doel is dat burgers snel zien wat echt en wat gegenereerd is.
Voor overheden en publieke diensten in Europa betekent dit nieuwe werkprocessen. Denk aan interne checks, labeling en metadata die herkomst tonen. Op het moment van schrijven werken uitvoeringsregels en timing nog uit in de lidstaten.
De regels sluiten aan op bestaande AVG-principes. Dataminimalisatie, beveiliging en transparantie blijven de basis. Waar AI-systemen persoonsgegevens verwerken, gelden extra waarborgen.
Advies voor overheidsvideoās
Publiceer waar mogelijk het originele videobestand naast de sociale versie. Zo blijven metadata en beeldkwaliteit behouden voor controle. Beschrijf bovendien wanneer, waar en hoe de opname is gemaakt.
Gebruik herkomstlabels via standaarden zoals C2PA, die de geschiedenis van een beeld vastlegt. Dat helpt redacties en burgers bij verificatie. Ook Nederlandse en Europese mediahuizen testen dit soort oplossingen.
Wanneer generatieve systemen zijn gebruikt, label dat zichtbaar. Leg kort uit wat het model heeft gedaan, bijvoorbeeld kleurcorrectie of audioherstel. Dit vergroot vertrouwen en sluit aan bij de AI Act.
Tips voor kijkers en redacties
Kijk naar consistente schaduwen, reflecties en lip-sync met de audio. Let op rare vervormingen die met de achtergrond meebewegen. Check of hetzelfde fragment in hogere kwaliteit of vanuit een andere bron bestaat.
Wees voorzichtig met snelle conclusies over āAIā. Veel āglitchesā komen door compressie of cameratechniek. Vraag om bronbestanden als een video publieke impact heeft.
Redacties kunnen eenvoudige forensische tools gebruiken voor ruis- en compressieanalyse. Combineer dat met context: locatie, tijd en getuigen. Zo wordt een echt filmpje niet onterecht als deepfake weggezet ā of andersom.
