Vautmans eist AI-moderatie bij Meta, X en TikTok tegen online geweld

  • Home
  • >
  • Blog
  • >
  • Nieuws
  • >
  • Vautmans eist AI-moderatie bij Meta, X en TikTok tegen online geweld

Amsterdam, 13 maart 2026 16:19 

Europarlementslid Hilde Vautmans roept op tot meer daadkracht tegen online geweld. Ze wil dat Brussel en grote platforms sneller ingrijpen bij haat, intimidatie en deepfakes. De oproep werd deze week gedaan in Brussel, op het moment van schrijven. Doel is betere bescherming van burgers, vooral vrouwen en minderjarigen, en striktere handhaving van Europese regels zoals de AI-verordening en de Digital Services Act.

Meer druk op platforms

Vautmans vraagt om stevigere aanpak bij grote sociale netwerken als Meta, X, TikTok en YouTube. Deze bedrijven vallen onder de Digital Services Act (DSA), die zorgplicht en risicobeperking eist. Dat moet misbruik via algoritmen die berichten aanraden, sneller indammen.

De DSA verplicht zeer grote platforms tot risicometing en snelle maatregelen tegen online geweld. Dat gaat van betere meldknoppen tot meer menselijke controle naast automatische filters. De Europese Commissie kan boetes opleggen als dit uitblijft.

Ook transparantie over aanbevelingssystemen is nodig. Een aanbevelingssysteem is een algoritme dat bepaalt welke berichten je ziet. Gebruikers moeten keuze krijgen voor een tijdlijn zonder profilering, zodat giftige inhoud minder opstuwt.

AI vergroot én bestrijdt schade

Genereerbare AI maakt misbruik eenvoudiger, bijvoorbeeld met deepfakes en nagemaakte stemmen. Tools als Midjourney, Stable Diffusion van Stability AI en DALL·E van OpenAI kunnen realistische beelden maken. Dat vergroot risico op nep-intieme foto’s en reputatieschade.

Tegelijk zetten platforms en opsporing ook AI in om misbruik te vinden. Moderatiesystemen scannen beeld, audio en tekst op patronen en woordenlijsten. Zulke datamodellen missen echter context en maken fouten, met zowel valse meldingen als gemiste signalen.

Vautmans wil dat automatische detectie altijd wordt aangevuld met menselijke beoordeling. Dat is nodig om nuance te wegen en escalatie te voorkomen. Heldere regels voor beroep en herstel zijn daarbij essentieel.

Online geweld omvat doxing, bedreigingen, het delen van intieme beelden zonder toestemming en deepfakes die iemands gezicht of stem namaken met een AI-model.

Europese AI-verordening versnelt aanpak

De Europese AI-verordening (AI Act) verplicht tot duidelijke vermelding van synthetische media. Deepfakes moeten herkenbaar zijn als kunstmatig gemaakt. Dit helpt platforms en slachtoffers om sneller bewijs te verzamelen en verwijdering te vragen.

Voor overheden heeft de AI-verordening gevolgen bij toezicht en inkoop. Toezichthouders moeten kennis opbouwen over modeltransparantie en evaluatie. Overheidsdiensten moeten bij gebruik van AI-systemen voldoen aan strikte documentatie en risicobeperking.

Transparantieregels raken ook aanbieders van generieke AI. Zij moeten technische informatie delen over veiligheid en beperkingen. Dat maakt misbruikanalyses en forensisch onderzoek beter uitvoerbaar.

Snellere hulp voor slachtoffers

Vautmans pleit voor korte lijnen tussen meldpunten, politie en platforms. Met de DSA kunnen “trusted flaggers” prioritaire meldingen doen voor snelle verwijdering. Dat moet ook werken buiten kantooruren en over landsgrenzen heen.

Bewijs verzamelen vraagt zorg voor privacy onder de AVG. Dataminimalisatie betekent: alleen vastleggen wat strikt nodig is, bij voorkeur versleuteld. Zo blijft gevoelige informatie beschermd, ook als bestanden moeten worden gedeeld met justitie.

Een duidelijk proces voorkomt hertraumatisering. Denk aan één loket, statusupdates en tijdslimieten voor beslissingen. Platforms horen standaard te rapporteren welke stappen ze nemen en waarom.

Nederland en België scherpen beleid

In Nederland is online seksueel misbruik strafbaar gesteld en wordt het strafrecht vernieuwd. België moderniseerde het seksueel strafrecht en pakt ongewenste beeldverspreiding harder aan. Deze wetten sluiten aan bij Europese regels en bieden slachtoffers extra bescherming.

Toezichthouders zoals de Autoriteit Persoonsgegevens en de Gegevensbeschermingsautoriteit letten op gegevensverwerking bij meldingen. Zij kunnen handhaven als organisaties onnodig data bewaren of delen. Heldere richtlijnen helpen hulpverleners en scholen om juist te handelen.

Onderwijs en mediawijsheid blijven belangrijk. Basale uitleg over phishing, doxing en deepfakes kan veel ellende voorkomen. Vautmans vraagt om Europese steun voor programma’s die bewezen werken.

Handhaving blijft zwakke schakel

Zonder capaciteit blijft regelgeving een papieren tijger. De Europese Commissie moet de DSA actief toepassen, inclusief audits bij zeer grote platforms. Boetes horen te volgen als risicobeperking en aanbevelingssystemen tekortschieten.

Onderzoekers hebben meer toegang tot platformdata nodig om effecten te meten. Gestandaardiseerde API’s en openbare rapportages maken vergelijking mogelijk. Zo wordt zichtbaar of maatregelen online geweld echt terugdringen.

Vautmans’ oproep richt de aandacht op snelheid en uitvoering. Technologie verandert snel, dus regels moeten mee en worden afgedwongen. Alleen dan wordt online veiligheid geen belofte, maar praktijk.


Over Dave

Hoi, ik ben Dave – schrijver, onderzoeker en nieuwsgierige geest achter AIInsiders.nl. Ik hou me bezig met de manier waarop technologie ons leven verandert, en vooral: hoe we dat een beetje kunnen bijbenen. Van slimme tools tot digitale trends, ik duik graag in de wereld achter de schermen.

Mijn stijl? Lekker helder, soms kritisch, altijd eerlijk. Geen onnodig jargon of overdreven hype, maar praktische inzichten waar je echt iets aan hebt. AI is niet eng of magisch – het is interessant, en ik help je graag om dat te zien.

{"email":"Email address invalid","url":"Website address invalid","required":"Required field missing"}

Elke dag het laatste AI-nieuws ontvangen?

Schrijf je in voor onze nieuwsbrief en ontvang iedere dag het laatste AI-nieuws. Zo weet je zeker dat je altijd op de hoogte bent van updates en meer.

Misschien ook interessant

Een analist bij Goldman Sachs, op het moment van schrijven actief als aandelenstrateeg, verwacht dat aandelenkoersen weinig extra stijgingsruimte hebben.

Google beperkt de gratis beeldgeneratie in Nano Banana, een populaire AI-beeldgenerator die op Google-modellen draait. Gebruikers krijgen vanaf nu minder

De Autoriteit Persoonsgegevens (AP) roept het kabinet deze week op om snel knopen door te hakken over kunstmatige intelligentie. De

>