Waarom een dinosaurus in een ICE-video mensen aan AI deed denken

  • Home
  • >
  • Blog
  • >
  • Nieuws
  • >
  • Waarom een dinosaurus in een ICE-video mensen aan AI deed denken

Amsterdam, 12 januari 2026 17:46 

In de Verenigde Staten zorgde een video van de immigratiedienst ICE voor verwarring. Kijkers dachten dat het om AI-beelden ging, omdat een kleine dinosaurus in beeld bewoog. Onderzoek van beeldexperts laat zien dat de opname echt is en de dino een gewoon bureauspeeltje is. De ophef sluit aan bij discussies over deepfakes en de Europese AI-verordening, en wat die betekent voor overheden die video delen online (Europese AI-verordening gevolgen overheid).

Video lijkt AI, is echt

De korte clip toont een ICE-agent achter een bureau. In de hoek staat een plastic dinosaurus die zachtjes wiebelt. Op sociale media ontstond het idee dat de hele video door een algoritme was gemaakt.

Beeldanalisten vinden daar geen bewijs voor. De belichting, schaduwen en reflecties kloppen met een echte opname. De beweging van de dino past bij een fysiek object dat reageert op trillingen of luchtstroom.

De montage is wel strak en het beeld is sterk gecomprimeerd. Dat maakt details vaag en gezichten wat ā€œgladā€. Zulke compressie is standaard bij platformen als X, TikTok en Instagram.

Dino en compressie misleiden

Veel kijkers zagen ā€œAI-foutenā€ in het filmpje. Denk aan zachte randen, kleine vervormingen en een onnatuurlijke huidtextuur. Dat zijn ook typische effecten van videocompressie, waarbij software beeldinformatie weglaat om het bestand kleiner te maken.

Een wiebelend speelding kan extra vreemd lijken door de zogeheten rolling shutter. Dat is een camera-effect waarbij snelle bewegingen licht verschuiven per beeldlijn. Het resultaat oogt voor sommigen alsof het synthetisch is gemaakt.

Ook diepte-van-veld speelt mee. Een lens die op het gezicht scherpstelt, laat objecten op de achtergrond onscherp ā€œsmerenā€. Samen met compressie wekt dit de indruk van AI, terwijl het gewone cameratechniek is.

Een deepfake is een synthetische video die echt lijkt, maar door kunstmatige intelligentie is gegenereerd of zwaar is gemanipuleerd.

Platforms en moderatie in EU

Discussies over ā€œis dit AI?ā€ ontstaan vaak op X, TikTok en YouTube. Deze platformen verkleinen video’s en voegen eigen filters toe. Daardoor nemen artefacten toe, wat bronanalyse bemoeilijkt.

In de EU vallen grote platformen onder de Digital Services Act (DSA). Zij moeten risico’s rond desinformatie beperken en transparanter zijn over moderatie. Dat omvat ook beleid voor synthetische media en misleidende labels.

Voor Europese gebruikers betekent dit meer context en betere meldopties. Toch blijft bronverificatie lastig bij korte, gedeelde clips. Openbare instellingen hebben daarom een grotere bewijs- en zorgplicht.

AI-verordening eist labeling

De Europese AI-verordening (AI Act) verplicht aanbieders om deepfakes duidelijk te labelen. Dat geldt wanneer content synthetisch is of ingrijpend is gemanipuleerd. Doel is dat burgers snel zien wat echt en wat gegenereerd is.

Voor overheden en publieke diensten in Europa betekent dit nieuwe werkprocessen. Denk aan interne checks, labeling en metadata die herkomst tonen. Op het moment van schrijven werken uitvoeringsregels en timing nog uit in de lidstaten.

De regels sluiten aan op bestaande AVG-principes. Dataminimalisatie, beveiliging en transparantie blijven de basis. Waar AI-systemen persoonsgegevens verwerken, gelden extra waarborgen.

Advies voor overheidsvideo’s

Publiceer waar mogelijk het originele videobestand naast de sociale versie. Zo blijven metadata en beeldkwaliteit behouden voor controle. Beschrijf bovendien wanneer, waar en hoe de opname is gemaakt.

Gebruik herkomstlabels via standaarden zoals C2PA, die de geschiedenis van een beeld vastlegt. Dat helpt redacties en burgers bij verificatie. Ook Nederlandse en Europese mediahuizen testen dit soort oplossingen.

Wanneer generatieve systemen zijn gebruikt, label dat zichtbaar. Leg kort uit wat het model heeft gedaan, bijvoorbeeld kleurcorrectie of audioherstel. Dit vergroot vertrouwen en sluit aan bij de AI Act.

Tips voor kijkers en redacties

Kijk naar consistente schaduwen, reflecties en lip-sync met de audio. Let op rare vervormingen die met de achtergrond meebewegen. Check of hetzelfde fragment in hogere kwaliteit of vanuit een andere bron bestaat.

Wees voorzichtig met snelle conclusies over ā€œAIā€. Veel ā€œglitchesā€ komen door compressie of cameratechniek. Vraag om bronbestanden als een video publieke impact heeft.

Redacties kunnen eenvoudige forensische tools gebruiken voor ruis- en compressieanalyse. Combineer dat met context: locatie, tijd en getuigen. Zo wordt een echt filmpje niet onterecht als deepfake weggezet — of andersom.


Over Dave

Hoi, ik ben Dave – schrijver, onderzoeker en nieuwsgierige geest achter AIInsiders.nl. Ik hou me bezig met de manier waarop technologie ons leven verandert, en vooral: hoe we dat een beetje kunnen bijbenen. Van slimme tools tot digitale trends, ik duik graag in de wereld achter de schermen.

Mijn stijl? Lekker helder, soms kritisch, altijd eerlijk. Geen onnodig jargon of overdreven hype, maar praktische inzichten waar je echt iets aan hebt. AI is niet eng of magisch – het is interessant, en ik help je graag om dat te zien.

{"email":"Email address invalid","url":"Website address invalid","required":"Required field missing"}

Misschien ook interessant

>