Helpt AI jongeren onderscheid maken tussen journalist en influencer?

  • Home
  • >
  • Blog
  • >
  • Nieuws
  • >
  • Helpt AI jongeren onderscheid maken tussen journalist en influencer?

Amsterdam, 10 november 2025 09:36 

Docenten en media-experts waarschuwen deze week dat jongeren nieuws en reclame op TikTok nauwelijks uit elkaar houden. Vooral in Limburg en de rest van Nederland groeit de zorg over de rol van algoritmen bij nieuwsconsumptie. De Europese AI-verordening en de Digital Services Act leggen platforms en overheid extra plichten op, maar in de klas merkt men daar weinig van. Het ontbreekt aan praktische middelen om snel te zien wie je kunt vertrouwen en waarom.

TikTok vervaagt nieuwsgrenzen

Op TikTok brengen influencers en journalisten nieuwsachtig ogende video’s in hetzelfde snelle, persoonlijke format. Jongeren ervaren die makers als ā€˜iemand zoals ik’, wat vertrouwen wekt zonder redactionele checks en balances. Sponsoring of belangen worden niet altijd duidelijk, of staan pas in kleine lettertjes. Zo vervaagt het onderscheid tussen onafhankelijke duiding en betaalde beĆÆnvloeding.

Ook nieuwsredacties passen zich aan met korte, pakkende clips en emotionele hooks. Dat vergroot bereik, maar maakt het moeilijk om context en nuance te bieden. Het resultaat is dat journalistieke standaarden minder zichtbaar zijn voor kijkers. Een herkenbaar keurmerk of duidelijke bronvermelding ontbreekt vaak in de video zelf.

Tegelijk stuurt het aanbevelingssysteem van TikTok vooral op betrokkenheid, zoals likes en reacties. Dat vergroot de kans dat polariserende of simpele boodschappen boven komen drijven. Complexe verhalen met meerdere perspectieven halen het minder snel. De technologische logica botst zo met de kern van journalistiek: verifiƫren en nuanceren.

Lesmateriaal schiet nog tekort

In het onderwijs klinkt de boodschap dat mediawijs maken voelt als een strijd met blinddoek. Leraren zien niet wat er in ieders ā€˜For You’-feed zit en kunnen dat moeilijk nabootsen. Elke leerling krijgt immers een andere stroom, gevormd door persoonlijke data en kijkgedrag. Daardoor is klassikaal oefenen met ƩƩn voorbeeld vaak onvoldoende.

Er zijn programma’s zoals MediaMasters, Nieuws in de Klas en toolkits van Netwerk Mediawijsheid. Die helpen met basisvaardigheden, maar lopen achter op snel veranderende platformfuncties. Nieuwe formats, filters en AI-bewerkingen verschijnen wekelijks. Scholing en tijd om bij te blijven zijn in veel scholen schaars.

In Limburg organiseren bibliotheken en jongerenwerk deze week extra workshops over nepnieuws en influencer-marketing. Daarbij is aandacht voor bronherkenning en reclamecodes. De vraag is groter dan het aanbod en structurele financiering ontbreekt op het moment van schrijven. Scholen willen doorlopende ondersteuning, niet alleen een jaarlijkse actieweek.

DSA eist meer transparantie

De Europese Digital Services Act (DSA) verplicht TikTok als ā€œzeer groot online platformā€ tot risicoanalyses en meer openheid. In de EU kunnen gebruikers een niet-gepersonaliseerde feed kiezen en is er een advertentiebibliotheek. Minderjarigen mogen geen gepersonaliseerde advertenties krijgen. Toch blijft het aanbevelingssysteem voor docenten en ouders grotendeels een black box.

De DSA regelt ook dat goedgekeurde onderzoekers toegang kunnen krijgen tot platformdata. In de praktijk komt die toegang langzaam op gang en is ze beperkt. Onderwijsinstellingen hebben bovendien geen onderzoeksstatus en vallen vaak buiten die regeling. Daardoor ontbreken praktische audittools voor de klas.

Platforms moeten tevens uitleggen waarom bepaalde content wordt aanbevolen. Die uitleg is vaak abstract en moeilijk te vertalen naar een les. Wat werkt in theorie, brengt in de praktijk weinig houvast. Het effect in het lokaal blijft vooralsnog klein.

De Digital Services Act verplicht zeer grote platforms om systemische risico’s te beperken, zoals desinformatie en schade voor minderjarigen, en om hun aanbevelingssystemen begrijpelijk toe te lichten aan EU-gebruikers.

AI-labels missen nog grip

TikTok vraagt makers om AI-gegenereerde of zwaar bewerkte content te labelen, en kan sommige uploads automatisch markeren. Het bedrijf werkt aan standaarden zoals Content Credentials om herkomstgegevens mee te geven. Toch glippen deepfakes en synthetische stemmen geregeld door de controles. Detectie werkt niet altijd en labels zijn niet waterdicht.

Deepfakes van politici of journalisten kunnen het vertrouwen in nieuws ernstig ondermijnen. Vooral korte, gedecontextualiseerde clips zijn lastig te checken op een mobiel scherm. Jongeren zien vaak het spektakel, niet de herkomst. Zonder duidelijke bron valt echt en nep slecht te scheiden.

De Europese AI-verordening verplicht straks tot duidelijke aanduiding van deepfakes, met uitzonderingen voor rechtmatige toepassingen. Die regels gaan gefaseerd gelden in 2025 en 2026, op het moment van schrijven. Handhaving en praktische invulling moeten nog blijken. Tot die tijd blijft educatie de belangrijkste bescherming.

Toezicht is versnipperd in Nederland

Het Commissariaat voor de Media ziet toe op mediawetgeving, vooral bij omroepen en videoplatforms met Nederlandse vestiging. Influencers vallen vooral onder de Reclamecode Social Media en de wet tegen misleiding. De Autoriteit Consument & Markt kan optreden bij verborgen reclame. Maar toezicht op snelle, grensoverschrijdende TikTok-video’s is complex.

De Autoriteit Persoonsgegevens handhaaft de AVG, met speciale aandacht voor kinderen. Dataminimalisatie en toestemming zijn verplicht, ook voor scholen die digitale tools gebruiken. Tegelijk hebben platforms eigen voorwaarden die niet altijd helder zijn. Die combinatie geeft ruimte voor onduidelijkheid in de klaspraktijk.

Journalistieke normen, reclameregels en privacywetgeving raken elkaar maar vallen onder verschillende instanties. Daardoor ontstaan grijze zones rond nieuwsachtig ogende content van influencers. Gezamenlijke richtlijnen zijn in ontwikkeling, maar niet overal bekend. Leraren vragen om eenvoudige, toetsbare checklists per platform.

Praktische stappen voor scholen

Begin met drie vaste vragen bij elke video: wie is de afzender, wat is het doel en welke bron kan ik controleren? Laat leerlingen doorklikken naar profiel, website en eerdere posts. Maak reclame- en samenwerkingslabels expliciet onderdeel van de analyse. Vergelijk claim en bron met een betrouwbaar nieuwsartikel of factcheck.

Gebruik platforminstellingen die de invloed van het algoritme beperken, zoals een niet-gepersonaliseerde feed in de EU. Leg uit hoe je de rapportagefuncties gebruikt en waarom ā€˜langzaam kijken’ fouten onthult. Laat leerlingen zelf een video her-monten met duidelijke bronvermelding en context. Zo ervaren ze wat er verloren gaat in 15 seconden.

Betrek Nederlandse initiatieven zoals NieuwsCheckers en het BENEDMO-netwerk voor lesmateriaal en onderzoeken. Werk samen met lokale bibliotheken en jongerenwerk voor trainingen. Plan meerdere korte modules door het jaar, niet ƩƩn losse les. Dat vergroot de kans dat vaardigheden beklijven in het dagelijks scrollen.


Over Dave

Hoi, ik ben Dave – schrijver, onderzoeker en nieuwsgierige geest achter AIInsiders.nl. Ik hou me bezig met de manier waarop technologie ons leven verandert, en vooral: hoe we dat een beetje kunnen bijbenen. Van slimme tools tot digitale trends, ik duik graag in de wereld achter de schermen.

Mijn stijl? Lekker helder, soms kritisch, altijd eerlijk. Geen onnodig jargon of overdreven hype, maar praktische inzichten waar je echt iets aan hebt. AI is niet eng of magisch – het is interessant, en ik help je graag om dat te zien.

{"email":"Email address invalid","url":"Website address invalid","required":"Required field missing"}

Misschien ook interessant

>