AI-fake ontmaskerd: vliegtuigfoto onterecht gekoppeld aan orkaan Melissa

  • Home
  • >
  • Blog
  • >
  • Nieuws
  • >
  • AI-fake ontmaskerd: vliegtuigfoto onterecht gekoppeld aan orkaan Melissa

Amsterdam, 30 oktober 2025 19:50 

Op sociale media circuleert een spectaculair vliegtuigbeeld dat aan orkaan Melissa wordt gekoppeld. Het zou gaan om een passagiersvliegtuig dat door extreme wind landt. Onafhankelijke factcheckers tonen aan dat het beeld door kunstmatige intelligentie is gemaakt en niets met de storm te maken heeft. De discussie raakt ook aan regels in de Europese AI-verordening en de plicht voor platforms om misleiding te beperken.

Beeld is AI-gegenereerd

Het gedeelde vliegtuigbeeld is geen foto of video, maar een AI-afbeelding. Dat is te zien aan visuele artefacten, zoals onnatuurlijke reflecties en onlogische details. Ook bestaan er meerdere bijna identieke varianten, wat past bij afbeeldingen die met generatieve modellen zijn gemaakt.

Bij AI-afbeeldingen ontbreekt vaak betrouwbare broninformatie of fotometadata. De herkomst is dan niet te verifiƫren via fotobureaus of luchtvaartarchieven. Dat maakt de kans op misleiding groot, zeker rond nieuwsgebeurtenissen.

Het is niet bekend met welke tool dit beeld is gemaakt. Veel vergelijkbare nepbeelden ontstaan met systemen als Midjourney (Midjourney Inc.), DALLĀ·E (OpenAI) of Stable Diffusion (Stability AI). Deze modellen genereren realistische scĆØnes op basis van tekstinvoer.

Geen link met orkaan Melissa

Er is geen bewijs dat het vliegtuigbeeld tijdens orkaan Melissa is vastgelegd. Luchthavens en luchtvaartmaatschappijen maken dergelijke noodsituaties normaal gesproken meteen bekend. Zo’n melding ontbreekt, net als onafhankelijke opnames vanuit andere hoeken.

De timing van het virale bericht klopt ook niet met bekende weerberichten en vliegdata. Bij echte incidenten zijn die gegevens terug te vinden in publieke logboeken en persberichten. Dat is hier niet het geval.

De stormnaam in het bericht wekt urgentie, maar geeft geen extra bewijs. Het koppelen van AI-beelden aan actuele rampen is een bekende tactiek om snelheid en bereik te winnen. Daardoor verspreidt het bericht zich voordat de controle heeft plaatsgevonden.

Zo herken je nepbeelden

Let op kleine fouten in randen, teksten en logo’s. AI-modellen hebben moeite met fijne details, symmetrie en realistische schaduwen. Ook water, handen en ramen zien er vaak vreemd uit.

Controleer de herkomst met een omgekeerde beeldzoekactie, bijvoorbeeld via Google Lens of Bing. Verschijnen er geen oudere resultaten of alleen varianten met kleine verschillen, dan is het waarschijnlijk een AI-beeld. Controleer daarnaast of nieuwsredacties of luchtvaartfora het beeld hebben geverifieerd.

Let op waarschuwingssignalen in de beschrijving. Superlatieven, alarmistische taal en ontbrekende locatie- of tijdsaanduidingen zijn verdacht. Bij twijfel: niet delen en eerst checken bij betrouwbare bronnen.

Deepfake: een media-uiting die met generatieve AI is gemaakt en een echt persoon, object of gebeurtenis nabootst, zonder dat dit voor de kijker duidelijk is.

Platforms labelen nog wisselend

Meta zegt AI-beelden te labelen met behulp van watermerken en gebruikersmeldingen. In de praktijk glippen veel afbeeldingen door de controles. De kwaliteit van de labels verschilt per taal, regio en type content.

X (voorheen Twitter) vertrouwt vooral op Community Notes. Dat werkt alleen als genoeg gebruikers de misleiding herkennen en context toevoegen. In snelle nieuwscycli komt zo’n correctie vaak te laat.

TikTok verplicht makers om AI-content te markeren, maar handhaving is wisselend. Bij crisissituaties is de druk op moderatie extra hoog. Onder de EU Digital Services Act moeten grote platforms in de EU dit soort systeemrisico’s beter beperken.

EU verplicht deepfake-transparantie

De Europese AI-verordening legt een transparantieplicht op voor deepfakes, op het moment van schrijven gefaseerd ingevoerd. Makers en verspreiders moeten duidelijk maken dat het om synthetische media gaat. Uitzonderingen, bijvoorbeeld voor satire, vragen passende waarborgen.

Voor overheden en publieke diensten speelt dit extra. Het niet labelen van AI-gegenereerde beelden kan tot verwarring of paniek leiden. Dat raakt aan vertrouwen in communicatie en crisisbeheersing.

Watermerken en herkomstlabels via de C2PA-standaard (onder meer gesteund door Adobe en Microsoft) kunnen helpen. Deze techniek voegt controleerbare herkomstinformatie toe aan beelden. Het is nuttig, maar niet waterdicht, omdat watermerken te verwijderen of te kopiƫren zijn.

Praktische tips voor Nederland

Gebruik bij twijfel tools als InVID-WeVerify voor video en Google Lens voor beelden. Controleer of Nederlandse media, het KNMI of een betrokken luchthaven iets hebben gemeld. Kijk ook op specialistische fora, zoals luchtvaart- en weercommunities.

Let op Content Credentials, een soort digitaal label dat de herkomst toont. Steeds meer redacties en fotografen zetten dit aan. U kunt die gegevens controleren via officiƫle verificatiesites.

Zie u misleidende AI-beelden over rampen? Meld ze bij het platform en deel ze niet verder. Voor educatie en checklists kunt u terecht bij Nederlandse initiatieven zoals Nieuwscheckers (Universiteit Leiden) en Beeld & Geluid.


Over Dave

Hoi, ik ben Dave – schrijver, onderzoeker en nieuwsgierige geest achter AIInsiders.nl. Ik hou me bezig met de manier waarop technologie ons leven verandert, en vooral: hoe we dat een beetje kunnen bijbenen. Van slimme tools tot digitale trends, ik duik graag in de wereld achter de schermen.

Mijn stijl? Lekker helder, soms kritisch, altijd eerlijk. Geen onnodig jargon of overdreven hype, maar praktische inzichten waar je echt iets aan hebt. AI is niet eng of magisch – het is interessant, en ik help je graag om dat te zien.

{"email":"Email address invalid","url":"Website address invalid","required":"Required field missing"}

Misschien ook interessant

>