AI-video met verouderde Elon Musk (Tesla/X) gaat viraal: 80% banen in 2030?

  • Home
  • >
  • Blog
  • >
  • Nieuws
  • >
  • AI-video met verouderde Elon Musk (Tesla/X) gaat viraal: 80% banen in 2030?

Amsterdam, 1 maart 2026 21:52 

Een Belgische AI-video met een ouder ogende Elon Musk is deze week viraal gegaan op sociale media. In de clip voorspelt de techmiljardair dat bijna 80% van de mensen in 2030 hun baan verliest door kunstmatige intelligentie. De beelden zijn met algoritmen gemaakt en dus geen echte uitspraak van Musk. Het filmpje wakkert het debat aan over deepfakes, de Europese AI-verordening en de gevolgen voor overheid en media.

Deepfake met Musk gaat rond

In de korte video spreekt een levensechte, maar synthetische versie van Elon Musk het publiek toe. Het gezicht oogt verouderd en de stem klinkt als die van de ondernemer. Er is geen aanwijzing dat hij dit echt heeft gezegd of opgenomen. De gebruikte software is op het moment van schrijven niet bekendgemaakt.

Dit soort gemanipuleerde media heet een deepfake: beelden of geluid die door een AI-model zijn gegenereerd of aangepast. Toegankelijke tools voor video-avatars, zoals Synthesia of HeyGen, en stemkloners, zoals ElevenLabs, maken zulke producties voor iedereen haalbaar. Dat verlaagt de drempel, maar vergroot ook de kans op misleiding. Bekende gezichten geven de boodschap extra gezag, ook als die niet klopt.

Het filmpje past in een bredere trend waarin synthetische video en audio snel realistischer worden. Kleine imperfecties in lip-sync, belichting of intonatie vallen minder op op een smartphonescherm. Daardoor verspreiden dit soort clips zich razendsnel. Correcties en factchecks komen vaak pas later.

ā€œBijna 80% van mensen heeft in 2030 baan verloren door AI.ā€

Werkclaim mist onderbouwing

De stelling dat tegen 2030 bijna 80% van de mensen hun baan kwijt is door AI, mist onderbouwing. Grote internationale studies schatten vooral de blootstelling van taken aan AI, niet directe baanvernietiging. Schattingen lopen uiteen en spreken meestal over herverdeling van werk, omscholing en nieuwe functies. Het tempo tot 2030 is bovendien kort voor structurele arbeidsmarktveranderingen op die schaal.

In Nederland en Belgiƫ gaat het debat vooral over taken die veranderen binnen beroepen, zoals administratie, klantenservice en routine-analyses. Werkgevers en vakbonden zetten in op bij- en omscholing om werknemers met AI te laten werken in plaats van ze te vervangen. Overheden onderzoeken hoe productiviteitswinst kan samengaan met bescherming van werknemers. De boodschap is dus genuanceerder dan een massaal banenverlies op korte termijn.

Voor lezers is het belangrijk onderscheid te maken tussen ā€œtaken automatiserenā€ en ā€œbanen schrappenā€. Een taak kan door een systeem worden overgenomen, terwijl de baan blijft bestaan met andere taken erbij. Dat is een wezenlijk verschil dat in virale video’s vaak ontbreekt. Extreem hoge percentages zonder bronvermelding zijn daarom een rode vlag.

AI-verordening verplicht deepfake-labels

De Europese AI-verordening (AI Act) wordt vanaf 2024 gefaseerd ingevoerd. Een kernregel is transparantie: wie synthetische media of deepfakes publiceert, moet duidelijk maken dat de inhoud door AI is gegenereerd of gemanipuleerd. Dat geldt voor makers, adverteerders en ook voor publieke instellingen. Voor overheden betekent dit dat campagnes met synthetische beelden herkenbaar gelabeld moeten zijn, om vertrouwen te behouden.

Daarnaast vallen grote platforms in de EU onder de Digital Services Act (DSA). Zij moeten risico’s rond desinformatie en manipulatieve content beperken en gebruikers beter informeren. Labeling en herkomstgegevens spelen daarbij een rol. Overtredingen kunnen leiden tot onderzoek en boetes door Europese toezichthouders.

Technisch werken bedrijven aan watermerken en herkomstlabels, zoals Google’s SynthID en de C2PA-standaard (Content Credentials). Die helpen om aan te tonen waar een video vandaan komt en of die is bewerkt. Toch zijn deze oplossingen niet waterdicht. Bij herpublicatie of knippen kunnen labels verdwijnen.

Privacy en portretrecht spelen mee

Het gebruik van iemands gezicht of stem in synthetische media raakt aan privacyregels onder de AVG. Beeld en stem zijn persoonsgegevens, en bij unieke herkenning zelfs biometrische gegevens. Voor verwerking is een geldige rechtsgrond nodig, zoals toestemming of een duidelijke journalistieke uitzondering. Zonder die basis kan publicatie onrechtmatig zijn.

Naast de AVG geldt in Nederland en Belgiƫ het portretrecht. Wie iemands portret commercieel inzet of diens reputatie schaadt met misleidende beelden, kan daarmee in de problemen komen. Bij publieke figuren weegt het publieke belang van berichtgeving mee, maar dat legitimeert geen misleiding. Deepfakes met schadelijke claims kunnen ook tot smaad leiden.

Redacties en organisaties doen er goed aan interne richtlijnen te hanteren voor synthetische media. Denk aan expliciete labeling, bewaartermijnen, en controle van tools en datasets. Dat verkleint juridische risico’s en helpt het publiek beter te informeren.

Platforms worstelen met handhaving

Sociale netwerken hebben regels tegen misleidende synthetische media. Zo eisen ze vaak een label of verbieden ze deepfakes die kiezers of consumenten misleiden. In de praktijk is de handhaving wisselend. Viraliteit gaat sneller dan moderatie.

In de EU moeten zeer grote platforms onder de DSA hun risicobeperking aantoonbaar organiseren. Denk aan snellere meldkanalen, samenwerking met factcheckers en zichtbare contextlabels. Toch blijven veel video’s lang online of duiken opnieuw op via knipsels. Dat ondermijnt vertrouwen in de informatievoorziening.

Gebruikers kunnen misleidende content rapporteren en om toelichtingen vragen. In Europa bestaan extra klachtenroutes als moderatie tekortschiet. Transparantieverslagen van platforms zullen laten zien of hun aanpak werkt, zeker richting verkiezingsperiodes.

Tips om misleiding te spotten

Let op de bron: wie publiceert de video, en is er een duidelijke geloofwaardige herkomst? Extreem stellige claims met exacte percentages zonder onderliggende studie zijn verdacht. Zoek naar een label of disclaimer dat de video synthetisch is. Ontbreekt die, wees dan extra kritisch.

Check visuele en auditieve signalen. Let op onnatuurlijke oogknippers, mondbewegingen die niet kloppen met de spraak, of schommelende belichting. Een reverse image search of het pauzeren op enkele frames kan inconsistenties tonen. Vergelijk ook met recente, echte optredens van de persoon.

Zoek bevestiging in betrouwbare bronnen, zoals officiĆ«le kanalen of erkende nieuwsmedia. Deel twijfelachtige video’s niet verder zonder context. Meld deepfakes bij het platform, zodat moderatie op gang komt. Zo helpt u mee de informatieruis te beperken.


Over Dave

Hoi, ik ben Dave – schrijver, onderzoeker en nieuwsgierige geest achter AIInsiders.nl. Ik hou me bezig met de manier waarop technologie ons leven verandert, en vooral: hoe we dat een beetje kunnen bijbenen. Van slimme tools tot digitale trends, ik duik graag in de wereld achter de schermen.

Mijn stijl? Lekker helder, soms kritisch, altijd eerlijk. Geen onnodig jargon of overdreven hype, maar praktische inzichten waar je echt iets aan hebt. AI is niet eng of magisch – het is interessant, en ik help je graag om dat te zien.

{"email":"Email address invalid","url":"Website address invalid","required":"Required field missing"}

Misschien ook interessant

>