Microsoft-president Brad Smith zei deze week dat AI-bedrijven kinderen actief moeten beschermen, anders horen zij niet in de markt thuis. De uitspraak kwam tijdens een bijeenkomst over online veiligheid in de technologiesector. De topman wil strengere standaarden en snelle handhaving. Dit sluit aan bij de Europese AI-verordening en de Digital Services Act, met directe “Europese AI-verordening gevolgen overheid” en bedrijven.
Kinderbescherming als randvoorwaarde
Smith stelde dat kindveiligheid geen bijzaak is, maar een basisvoorwaarde voor het aanbieden van algoritmen. Generatieve systemen, zoals Microsoft Copilot en andere taalmodellen, kunnen schadelijke of misleidende inhoud produceren. Zonder betrouwbare bescherming lopen minderjarigen extra risico. Dat vraagt om techniek én duidelijke afspraken.
De boodschap is hard: als platforms en AI-diensten kinderen niet veilig kunnen houden, moeten zij hun diensten stoppen of aanpassen. Dat geldt voor productontwerp, moderatie en age checks. Ook partners in de keten, zoals cloudaanbieders en appstores, dragen verantwoordelijkheid. Dit raakt dus het hele ecosysteem.
AI-bedrijven zetten al filters in tegen haat, pornografie en fraude. Toch werken die niet altijd goed, zeker bij nieuwe vormen van misbruik met deepfakes. Juist daarom dringt Microsoft aan op hogere baselines voor veiligheid. En op onafhankelijke toetsing van de resultaten.
“Als we kinderen niet kunnen beschermen, verdienen we het niet om zaken te doen.” — Brad Smith, vicevoorzitter en president van Microsoft (op het moment van schrijven)
Europese regels geven richting
In Europa gelden extra plichten via de AI-verordening (AI Act) en de Digital Services Act (DSA). De DSA verbiedt gerichte advertenties op minderjarigen en vraagt om stevige moderatie en transparantie. De AI Act verplicht risicobeoordelingen, documentatie en toezicht op generatieve systemen. Samen zetten deze wetten de lat hoger voor aanbieders van datamodellen.
Voor Nederlandse gebruikers betekent dit meer bescherming en duidelijkere meldknoppen. Platforms moeten beter uitleggen hoe hun systemen werken en welke data zij verwerken. Bij diensten voor onderwijs of zorg tellen de eisen dubbel zwaar. Instellingen moeten nagaan of een AI-tool veilig is voor jongeren en voldoet aan de AVG.
Toezichthouders krijgen ook meer middelen. De Autoriteit Persoonsgegevens let op dataminimalisatie en leeftijdscontrole zonder onnodige dataverzameling. De Europese Commissie kan boetes opleggen bij grove overtredingen. Dit verhoogt de druk om kinderbescherming niet alleen te beloven, maar ook te bewijzen.
Wat Microsoft nu inzet
Microsoft verwijst naar bestaande veiligheidslagen in Copilot en Azure AI, zoals inhoudsfilters, blokkades op expliciete beelden en strengere prompts. Voor herkenning van misbruik van afbeeldingen bouwt het bedrijf voort op PhotoDNA, al is dat vooral gericht op bekende materiaalherkenning. Voor nieuwe deepfakes zijn extra technieken nodig. Daarom werkt Microsoft ook met herkomstlabels via Content Credentials (C2PA), een soort “digitale handtekening” onder media.
Daarnaast zegt Microsoft dat kindvriendelijke standaarden in ontwerp vaste prik moeten zijn. Denk aan zichtbare rapportageknoppen, standaard streng ingestelde profielen en duidelijke uitleg in eenvoudige taal. Age assurance blijft lastig: leeftijd controleren zonder veel persoonsgegevens te verzamelen botst snel met de AVG. Het bedrijf pleit daarom voor privacyvriendelijke leeftijdsschatting en onafhankelijke audits.
De verantwoordelijkheid strekt zich uit tot partners. Microsoft levert infrastructuur aan ontwikkelaars en aan modellen van derden. Die ketenverantwoordelijkheid betekent contractuele eisen, technische drempels en snelle “kill switches” bij misbruik. Zonder die haken en ogen schuift het risico door naar kinderen en scholen.
Gaten die nog gedicht moeten
Leeftijdsverificatie werkt nog niet overal betrouwbaar en privacyvriendelijk. Zelfrapportage door gebruikers is makkelijk te omzeilen. Biometrie kan nauwkeuriger zijn, maar raakt de AVG en proportionaliteit. Europese richtsnoeren vragen daarom om minimale data, versleuteling en duidelijke bewaartermijnen.
Ook detectie van schadelijke inhoud blijft achter bij de creativiteit van aanvallers. Nieuwe prompts en beeldtrucs glippen soms langs filters. Dit vergt frequente updates van modellen en evaluaties op reële kinder-risicoscenario’s. Onafhankelijke benchmarks en rapportageplichten kunnen hier helpen.
Verder is herkomstcontrole van media nog versnipperd. Watermerken verdwijnen bij bijsnijden of hercompressie. Bronverificatie via C2PA helpt, maar alleen als veel partijen meedoen. Europese samenwerking met omroepen, uitgevers en platforms is nodig om dit breed te laten werken.
Gevolgen voor overheid en onderwijs
Voor overheden betekent dit striktere inkoop en toetsing van AI-diensten. De “Europese AI-verordening gevolgen overheid” zijn concreet: risicobeoordelingen, logboeken, en kinderimpact-analyses worden standaard. Scholen moeten controleren of Copilot-achtige tools veilig en AVG-proof zijn voor leerlingen. Dit vraagt om heldere contracten en technische beperkingen per leeftijdsgroep.
Gemeenten en ministeries die chatbots of vertaalmodellen inzetten, moeten de toegang voor minderjarigen doordenken. Denk aan strengere filters en geen profilering. Ook het delen van data met leveranciers moet beperkt en versleuteld zijn. Training van docenten en ambtenaren hoort daarbij.
De sector kan profiteren van duidelijke basisregels. Wie nu investeert in veiligheid, voorkomt later boetes en reputatieschade. De lat voor kinderbescherming wordt de nieuwe ondergrens. Dat is precies de norm waar Microsoft op aanstuurt.
