LinkedIn, onderdeel van Microsoft, past zijn privacyregels aan om AI te trainen met data van gebruikers. Het bedrijf wil publieke bijdragen en profielinformatie gebruiken voor generatieve functies op het platform. Dit geldt ook voor Nederlandse en Europese accounts, vanaf nu en in de komende weken. Wat betekent dit onder de AVG en de Europese AI-verordening voor overheid en bedrijven, en wat kun je doen?
LinkedIn gebruikt openbare data
LinkedIn wil algoritmen trainen met content die je publiek deelt. Denk aan posts, reacties, je profiel en openbare activiteiten. Het doel is nieuwe AI-functies te verbeteren, zoals tekstsuggesties en zoek- en matchsystemen. Zulke modellen leren van grote verzamelingen voorbeelden, ook wel datasets genoemd.
Het bedrijf zegt geen privéberichten te gebruiken. Ook belooft het geen gevoelige gegevens te verwerken, zoals gezondheid of politieke opvattingen. Toch kunnen systemen soms gevoelige informatie afleiden uit ogenschijnlijk neutrale data. Dat maakt zorgvuldige selectie en filtering noodzakelijk.
Onzeker blijft hoe lang data in trainingssets bewaard blijven. Training is vaak moeilijk terug te draaien, ook na een verwijderverzoek. Hergebruik door gelinkte modelpartners kan die controle verder beperken. Transparantie over datastromen en partners is daarom cruciaal.
Recht op bezwaar onder AVG
Voor dit soort verwerking beroepen platforms zich vaak op “gerechtvaardigd belang”. Dat mag alleen als het noodzakelijk is en belangen van gebruikers niet zwaarder wegen. De AVG verplicht tot duidelijke informatie en dataminimalisatie. Het bedrijf moet ook een belangenafweging kunnen laten zien.
Europese gebruikers hebben het recht om bezwaar te maken tegen deze verwerking. Doe je dat, dan moet het bedrijf stoppen, tenzij het dwingende gerechtvaardigde redenen aantoont. Dat staat los van andere rechten, zoals inzage en verwijdering. Het bezwaar geldt ook voor profieldata die aan jouw account zijn te koppelen.
AVG, artikel 21: “Je hebt te allen tijde het recht om bezwaar te maken tegen verwerking die is gebaseerd op gerechtvaardigd belang.”
Daarnaast gelden regels voor transparantie en beveiliging. Dat betekent heldere uitleg over welke data in welke modellen belanden. En passende technische maatregelen, zoals pseudonimisering. Zonder die waarborgen is verwerking niet rechtmatig.
Zo maak je nu bezwaar
Ga naar de privacy-instellingen van je LinkedIn-account en open het gedeelte over gegevensrechten. Zoek naar de optie om bezwaar te maken tegen gebruik van je data voor AI-training. Kun je het niet vinden, gebruik dan het formulier voor “data subject rights” in het helpcentrum. Bewaar een kopie of screenshot van je verzoek.
Het bedrijf moet normaal binnen een maand reageren. Vindt er daarna toch verwerking plaats, dien dan een klacht in bij de Autoriteit Persoonsgegevens. Je kunt ook een kopie van je bezwaar sturen naar de functionaris voor gegevensbescherming via het DPO-portaal. Dat versterkt je dossier bij eventuele handhaving.
Beheer je een bedrijfspagina, herhaal deze stappen voor die pagina. Controleer ook de rechten van collega’s met beheertoegang. Maak intern afspraken over wat wel en niet openbaar wordt geplaatst. Zo verklein je de kans dat oude berichten in trainingssets eindigen.
Risico’s en beperkingen
Een belangrijk risico is contextverlies. Een oude post kan in een dataset belanden zonder de uitleg eromheen. Het model leert dan op basis van fragmenten. Dat kan leiden tot vertekening of foutieve aannames.
AI-modellen kunnen bovendien gevoelige kenmerken afleiden, zoals etniciteit of geloof, ook als die niet expliciet zijn gedeeld. Dat vergroot de kans op bias in vacature- of netwerkvoorstellen. Voor de Nederlandse arbeidsmarkt is dit extra gevoelig. Het raakt aan gelijke kansen en non-discriminatie.
Voor werkgevers en overheden speelt nog iets. Hergebruik van data uit publieke profielen kan botsen met compliance-eisen. Denk aan DPIA’s en inkoopvoorwaarden. Koppel dit aan beleid voor sociale media en de “Europese AI-verordening gevolgen overheid”.
Gevolgen AI-verordening in EU
De AI-verordening legt plichten op aan aanbieders van algemene AI-modellen en aan gebruikers in ketens. LinkedIn valt vooral onder de AVG voor de dataverzameling. Toch kan de AI-verordening eisen stellen aan documentatie en risicobeperking van gebruikte systemen. Zeker wanneer functies impact hebben op toegang tot werk of diensten.
Toezicht in Europa loopt via de leidende toezichthouder van de vestigingsstaat. Voor veel techbedrijven is dat Ierland; in Nederland is de Autoriteit Persoonsgegevens betrokken bij klachten. Op het moment van schrijven kunnen burgers rechtstreeks een klacht indienen. Bedrijven doen er goed aan dit te volgen in hun compliance.
Samengevat blijft de AVG het scherpste instrument voor dit datagebruik. Transparantie, opt-out en strikte dataminimalisatie zijn vereisten, geen gunsten. Zonder heldere onderbouwing hoort grootschalige training op gebruikersdata te stoppen. Een opt-in zou de meest betrouwbare en Europese oplossing zijn.
Wat dit voor jou betekent
Controleer je instellingen en dien zo nodig bezwaar in. Verwijder of maak oudere gevoelige posts privé als je die niet in trainingsdata wilt zien. Bedrijven en overheden moeten hun socialmedia- en AI-beleid actualiseren. Leg vast hoe je omgaat met datasets, modellen en gebruikersdata uit externe platforms.
Let bij nieuwe AI-functies op duidelijke labels en uitleg. Vraag om de belangenafweging en welke datacategorieën worden gebruikt. Vraag desnoods om uitsluiting op account- of pagina-niveau. Blijf je twijfel houden, documenteer dan je verzoeken en overweeg een klacht bij de toezichthouder.
AI op sociale platforms ontwikkelt snel, maar jouw rechten blijven gelden. Een gericht bezwaar is vaak effectief. En het dwingt bedrijven tot betere uitleg en keuzes. Dat is goed voor gebruikers én voor betrouwbare algoritmen.
