Berichten over Mick Jagger en Melania Trump, en over een vriendschap tussen de zoon van de Canadese premier Justin Trudeau en popster Katy Perry, gingen vandaag rond op Europese nieuwssites en sociale platforms. Zulke korte celebrity-verhalen verspreiden snel via aanbevelingsalgoritmen van Google News, X en TikTok. Dat zet opnieuw de vraag op de agenda hoe technologie aandacht stuurt en kaders schept. De Europese AI-verordening en de Digital Services Act bepalen daarbij steeds meer de spelregels, ook voor overheid en media.
Algoritmen sturen roddelverkeer
In korte tijd kregen de meldingen over Jagger en Trump, en over Trudeauās zoon met Katy Perry, veel bereik. De inhoud is licht, maar prikkelt nieuwsgierigheid. Dat is precies het soort signaal waar aanbevelingssystemen op reageren.
Een aanbevelingsalgoritme is software die bepaalt welke berichten u bovenaan ziet, op basis van gedrag en populariteit. Die systemen meten klikken, likes en kijktijd. Celebrity-nieuwtjes scoren vaak hoog op die maatstaven.
Het gevolg is dat losse weetjes groter lijken dan ze zijn. Context en bron duwen naar de achtergrond. Daardoor kan het publiek moeilijker inschatten hoe belangrijk of bevestigd zoān claim echt is.
Platforms moeten transparanter
De Digital Services Act (DSA) verplicht grote platforms als Meta, TikTok en Google tot meer openheid over hun aanbevelers. Ze moeten uitleggen waarom u iets te zien krijgt en een eenvoudige manier bieden om personalisatie uit te zetten. Ook moeten ze risicoās van hun systemen jaarlijks onderzoeken en beperken.
In de EU is er nu bij TikTok, Instagram en Facebook een niet-gepersonaliseerde feed beschikbaar. Google News biedt ook meer regelaars voor onderwerpkeuze en bronnen. Dat geeft gebruikers iets meer grip op hun informatiestroom.
De DSA legt extra plichten op aan platforms met meer dan 45 miljoen EU-gebruikers, waaronder risicoanalyses, audits en keuze voor een niet-gepersonaliseerde feed.
Voor nieuws rond bekende personen kan dit verschil maken. Minder profielgestuurd betekent minder snelle opstuwende effecten. Maar transparantie alleen vervangt geen journalistieke controle.
AI-verordening raakt aanbevelers
De Europese AI-verordening (AI Act) werkt met risicoklassen voor algoritmen. Aanbevelingssystemen voor nieuws vallen meestal niet in de hoogste risicoklasse. Wel gelden transparantieplichten, en voor deepfakes komt een duidelijke labelverplichting.
Generatieve modellen zoals OpenAIās GPT-4, Google Gemini en Metaās Llama 3 kunnen overtuigende teksten en beelden maken. Daarmee neemt het risico op misleidende celebrity-content toe. De AI Act verplicht aanbieders tot documentatie, veiligheidsmaatregelen en, bij synthetische media, heldere aanduidingen.
Dit raakt ook publieke instellingen en omroepen in Europa. De āEuropese AI-verordening gevolgen overheidā zijn onder meer betere risicobeoordeling bij inkoop en gebruik van algoritmen. Voor burgers moet dat leiden tot voorspelbaarder en begrijpelijker digitale diensten.
Privacy beperkt personalisatie
Gerichte aanbevelingen steunen vaak op profielen en tracking. Onder de AVG is daarvoor een geldige grondslag nodig, meestal expliciete toestemming. Dataminimalisatie en beveiliging zijn verplicht.
Platforms moeten opties bieden om gegevens in te zien, te corrigeren of te verwijderen. Ook moeten zij uitleggen welke data voor aanbevelingen worden gebruikt. Nationale toezichthouders, zoals de Autoriteit Persoonsgegevens in Nederland, kunnen handhaven.
Voor gebruikers is het verschil tussen contextuele en profielgestuurde aanbeveling belangrijk. Contextueel kijkt naar de inhoud van de huidige pagina, niet naar uw hele surfgedrag. Dat is vaak privacyvriendelijker en juridisch eenvoudiger.
Feiten checken blijft nodig
Kleine roddels kunnen groot aanvoelen in de tijdlijn, maar zijn niet altijd goed onderbouwd. Nieuwsredacties en platformen moeten daarom sneller context tonen. Een duidelijke bronvermelding en datum helpen misverstanden voorkomen.
Techniek kan ondersteunen. Met C2PA-inhoudslabels (Content Credentials, gesteund door onder meer Adobe, Microsoft en de BBC) kan herkomst van fotoās en videoās zichtbaar worden. X gebruikt Community Notes om extra uitleg toe te voegen, al is de dekking wisselend.
Ook uitgevers kunnen hun workflows aanpassen. Snelle updates met zichtbare correcties vergroten vertrouwen. Gestructureerde data helpen zoekmachines om actuele, betrouwbare context hoger te plaatsen.
Wat dit betekent lokaal
Voor Nederlanders en Belgen is het slim om personalisatie-instellingen te checken. Bij TikTok kunt u de For You-feed wisselen naar een chronologische Weergave van gevolgde accounts. Instagram en Facebook bieden in de EU een chronologische weergave zonder profielsturing.
Toezicht gebeurt in Europa via gecoƶrdineerde teams; in Nederland spelen de Autoriteit Consument & Markt en de Autoriteit Persoonsgegevens een rol, in Belgiƫ de Gegevensbeschermingsautoriteit. Overheden werken tegelijk aan meer transparantie over eigen algoritmen, onder meer via een algoritmeregister. Zo ontstaat langzaam een gelijker speelveld tussen publieke en private systemen.
Als gebruiker helpt dit in de praktijk:
- Schakel waar mogelijk niet-gepersonaliseerde feeds in voor nieuwsapps en sociale media.
- Bekijk herkomstlabels of watermerken bij beelden en videoās, zeker rond bekende personen.
- Klik door naar de oorspronkelijke publicatie en check datum en context.
- Meld duidelijk misleidende of synthetische content bij het platform, zeker als er geen label staat.
