Zuckerberg blokkeerde Meta-regels voor seks-chatbots op Facebook Messenger

  • Home
  • >
  • Blog
  • >
  • Nieuws
  • >
  • Zuckerberg blokkeerde Meta-regels voor seks-chatbots op Facebook Messenger

Amsterdam, 27 januari 2026 21:52 

Topman Mark Zuckerberg wordt in de Verenigde Staten beschuldigd van het blokkeren van beperkingen op sekschatbots voor minderjarigen. In een lopende rechtszaak tegen Meta zouden interne voorstellen om jongeren te beschermen zijn tegengehouden. Het gaat om AI-functies op platforms als Instagram, Facebook en Messenger. De zaak raakt ook Europa, omdat de Europese AI-verordening en de Digital Services Act strenge eisen stellen aan kindveiligheid en algoritmen.

Rechtszaak zet Meta onder druk

De aanklagers stellen dat Meta te weinig deed om jeugdige gebruikers te beschermen tegen expliciete AI-gesprekken. Zij zeggen dat Zuckerberg persoonlijk ingreep toen teams strengere filters en leeftijdsbeperkingen voor chatbots wilden. De claims richten zich op AI-functies zoals Meta AI, die draaien op Llama-modellen.

De rechtszaak vraagt om maatregelen, zoals betere leeftijdscontroles, beperkingen op seksueel getinte interacties en onafhankelijke audits. Ook worden boetes en ontwerpaanpassingen geƫist om herhaling te voorkomen. De uitkomst kan gevolgen hebben voor de manier waarop grote platforms generatieve modellen inzetten voor gesprekken met jongeren.

Meta stelt in eerdere dossiers dat het bedrijf investeert in veiligheid, met moderatie, oudertools en beleid tegen expliciete inhoud. Toch laten incidenten in de sector zien dat filters bij generatieve AI niet altijd werken. De rechter moet nu wegen of Meta genoeg heeft gedaan en wie waarvoor verantwoordelijk is.

Interne rem op veiligheid

Volgens de aanklagers hebben productteams binnen Meta concrete opties aangeleverd om sekschat en rolspel voor tieners te blokkeren. Denk aan strengere trefwoordfilters, leeftijdsscheiding en standaard uitgeschakelde functies voor accounts van minderjarigen. Die voorstellen zouden niet zijn doorgevoerd na weerstand in de top.

De kern van de beschuldiging is dat groeidoelen en gebruiksduur zwaarder wogen dan kindveiligheid. Als dat klopt, raakt dit de governance van AI bij grote platforms. Het werpt ook de vraag op of beslissingen rond risico’s voldoende worden vastgelegd en getoetst.

Voor toezichthouders is dit belangrijk bewijs over interne afwegingen. Documentatie over wie wanneer welke keuze maakte, staat vaak centraal in handhaving van platformregels. Zulke informatie kan ook in Europa relevant zijn onder de onderzoeksbevoegdheden van de Digital Services Act.

Risico’s van sekschatbots

Generatieve AI maakt tekst en beelden op basis van data en patronen, en kan daardoor ook expliciet taalgebruik genereren. Minderjarigen lopen risico op grensoverschrijdende gesprekken, grooming en schadelijke normalisering. Zelfs met filters kunnen systemen ongewenste paden vinden via omwegen en codetaal.

Leeftijdscontrole is technisch en juridisch lastig. Soft checks, zoals geboortedatum invullen, zijn eenvoudig te omzeilen. Hardere methoden, zoals ID-verificatie of biometrie, botsen sneller met privacyregels en moeten aan de AVG voldoen.

Ook ontwerpkeuzes tellen mee: standaardinstellingen, zichtbare veiligheidsknoppen en duidelijke meldroutes verlagen risico’s. Bij chatbots voor jongeren hoort ā€œveilig by defaultā€ de norm te zijn. Dat betekent: beperkte functionaliteit, strikte filters en goede escalatie naar menselijke hulp waar nodig.

Een sekschatbot is een gesprekssysteem dat erotische of seksueel expliciete interacties nabootst. Voor jongeren kan dat schadelijk zijn, ook zonder beeldmateriaal.

EU-regels beschermen minderjarigen

De Digital Services Act verplicht zeer grote platforms tot risicobeoordelingen en mitigatie voor schade aan minderjarigen. Bij tekortschieten kunnen boetes oplopen tot 6% van de wereldwijde omzet. Toezichthouders mogen bovendien diepgaande informatie opvragen over keuzes, datasets en moderatie.

De Europese AI-verordening (AI Act) legt transparantie-eisen op aan generatieve modellen en stelt extra plichten als systemen een significant risico vormen. Diensten die interactie met kinderen mogelijk maken, moeten aantoonbaar passende waarborgen hebben. Dat raakt ook conversational AI zoals Meta AI en vergelijkbare chatfuncties.

De AVG geldt daarnaast voor alle verwerking van persoonsgegevens van kinderen. Dataminimalisatie, doelbinding en passende beveiliging zijn verplicht. Organisaties moeten kunnen uitleggen waarom data nodig zijn en hoe zij misbruik en lekken voorkomen.

Gevolgen voor Nederland en EU

Voor Nederlandse gebruikers kan de rechtszaak indirect leiden tot striktere standaardinstellingen voor jongeren. Denk aan automatisch uitgeschakelde AI-rollen met volwassen thema’s en verbeterde ouderlijk toezicht. Scholen en jeugdinstellingen zullen scherper moeten letten op AI-functies in apps die zij toestaan.

De Autoriteit Persoonsgegevens kan optreden als persoonsgegevens van jongeren onnodig of onveilig worden gebruikt. De Europese Commissie en nationale coƶrdinatoren kunnen onder de DSA ingrijpen bij systemische risico’s. Dat kan verplichtingen opleveren voor productaanpassingen, rapportages en audits.

Voor bedrijven is de les dat governance rond AI meer nodig heeft dan filters alleen. Besluitvorming, logging en onafhankelijke toetsing worden in rechtszaken steeds belangrijker. Wie met chatbots werkt in diensten met jongeren, moet dat ā€œprivacy en veiligheid eerstā€-principe aantoonbaar maken.

Meta belooft verbeteringen

Meta zegt dat het bedrijf investeert in Llama-veiligheidslagen, moderatie en een Family Center met ouderinstellingen. Het beleid verbiedt seksuele uitbuiting en expliciete inhoud, en AI-functies krijgen extra guardrails. Toch laten recente incidenten zien dat naleving in de praktijk lastig blijft.

Op het moment van schrijven zijn verschillende AI-functies van Meta niet in alle EU-landen beschikbaar of hebben beperkte opties. Dat komt mede door de strengere Europese regels voor data en risicobeheer. Verdere uitrol hangt af van toetsing aan de AI Act, de DSA en de AVG.

Als de rechter oordeelt dat interne waarschuwingen zijn genegeerd, kan dat nieuwe compliance-eisen versnellen. Dan wordt toetsing vooraf, inclusief kinderimpact-assessments, de norm bij conversational AI. Dat zou niet alleen Meta raken, maar elke grote aanbieder van chatbots in Europa.


Over Dave

Hoi, ik ben Dave – schrijver, onderzoeker en nieuwsgierige geest achter AIInsiders.nl. Ik hou me bezig met de manier waarop technologie ons leven verandert, en vooral: hoe we dat een beetje kunnen bijbenen. Van slimme tools tot digitale trends, ik duik graag in de wereld achter de schermen.

Mijn stijl? Lekker helder, soms kritisch, altijd eerlijk. Geen onnodig jargon of overdreven hype, maar praktische inzichten waar je echt iets aan hebt. AI is niet eng of magisch – het is interessant, en ik help je graag om dat te zien.

{"email":"Email address invalid","url":"Website address invalid","required":"Required field missing"}

Misschien ook interessant

>