Online groeit op dit moment een stroom van “AI‑slop”: massaal gemaakte teksten, beelden en video’s uit generatieve systemen. Grote platforms zoals Google en Meta verdienen eraan via advertenties, terwijl uitgevers en start-ups kosten willen drukken. In België en Nederland vragen politici en toezichthouders hoe dit past binnen de Digital Services Act en de Europese AI‑verordening. De kernvraag: wie bewaakt de kwaliteit als volume geld oplevert?
AI-slop groeit door ads
AI‑slop is laagwaardige, snel geproduceerde inhoud uit modellen zoals GPT‑4, Claude of Gemini. Het is goedkoop te maken en vaak moeilijk te herkennen. De inhoud wordt verspreid via zoekmachines, sociale netwerken en contentfarms die sturen op klikken en schermtijd.
Programmatic‑advertising beloont volume. Netwerken zoals Google Ads en Meta Audience Network plaatsen automatisch advertenties bij pagina’s die verkeer trekken. Daardoor komt ook rommelcontent in aanmerking voor inkomsten, zolang de pagina de juiste signalen afgeeft aan adtech‑systemen.
Voor lezers en adverteerders levert dit risico’s op. Misleidende koppen en half‑juiste uitleg komen vaker voorbij. De informatiestroom raakt vervuild, terwijl merken ongewild naast onbetrouwbare inhoud kunnen verschijnen.
AI‑slop: massaal gegenereerde, goedkope online inhoud met lage informatiewaarde, ingezet om advertentie-inkomsten of zoekverkeer te maximaliseren.
Labeling schiet nog tekort
Platforms werken aan labels voor synthetische media, maar die zijn onvolledig. Meta test bredere markeringen voor door AI bewerkte beelden. Google kondigde herkomstlabels en C2PA‑ondersteuning aan voor YouTube en Google Afbeeldingen.
In de praktijk blijft herkenning lastig. Niet alle makers voegen herkomstdata toe en watermerken kunnen verdwijnen bij bewerking. Ook tekst is vrijwel nooit gelabeld, terwijl juist daar veel AI‑slop ontstaat.
Gebruikers krijgen zo een gemengd beeld: sommige posts hebben waarschuwingen, veel andere niet. Dat ondermijnt vertrouwen en maakt fact‑checking duurder voor redacties en toezichthouders.
Uitgevers testen met rem
Nieuwsredacties in de Benelux experimenteren met GPT‑4, Google Gemini en Claude voor vertaalsuggesties, samenvattingen en ideeëngeneratie. Steeds vaker staat “mens‑in‑de‑lus” centraal: een redacteur keurt elke publicatie goed. Dit beperkt fouten en juridisch risico.
Volledig geautomatiseerde productie is zelden toegestaan op serieuze nieuwssites. Factuality‑fouten, bias en verouderde trainingsdata blijven zwakke plekken van datamodellen. Bovendien kan AI‑slop het merk van de uitgever aantasten.
Transparantie groeit. Steeds meer media voegen een noot toe als een artikel deels met algoritmen is voorbereid. Dat helpt lezers, adverteerders en ombudsmannen om klachten snel te beoordelen.
Europese regels brengen druk
De Europese AI‑verordening verplicht tot transparantie bij synthetische media zoals deepfakes. Aanbieders en gebruikers moeten duidelijk maken dat inhoud door een systeem is gemaakt of aangepast. Voor gewone tekst geldt geen harde plicht, maar openheid wordt wel verwacht.
De Digital Services Act verplicht grote platforms zoals Google en Meta om systeemrisico’s te beperken. Denk aan de verspreiding van misleidende inhoud via aanbevelingsalgoritmen. Jaarlijkse audits en risicorapporten horen daar bij, op het moment van schrijven.
Ook de AVG is relevant. Adtech‑ketens moeten dataminimalisatie toepassen en geldige toestemming hebben voor tracking. Voor Nederlandse overheden en publieke instellingen geldt extra zorg: “Europese AI‑verordening gevolgen overheid” betekent dat communicatie met burgers geen misleidende synthetische elementen mag bevatten.
Advertentieketen mist controle
De keten van adverteerder naar website is complex: DSP’s zoals Google DV360 of The Trade Desk koppelen aan SSP’s zoals Google Ad Manager. Zonder strakke block‑ en allowlists belanden advertenties op sites met AI‑slop. Dat schaadt merkveiligheid en meetkwaliteit.
Technische hulpmiddelen bestaan, maar zijn niet zaligmakend. Ads.txt en sellers.json geven inzicht in wie mag verkopen. GARM‑standaarden en verificatie‑tools filteren risico’s, maar herkennen AI‑tekst nog beperkt.
Adverteerders vragen daarom vaker om supply‑path‑optimalisatie en log‑level transparantie. Mediabureaus zetten inclusion‑lists op met gecontroleerde nieuwsmerken. Dit verschuift budgetten weg van clickfarms en beloont redactionele kwaliteit.
Kwaliteit als tegenstrategie
Detectie verbetert stap voor stap. Watermerken zoals C2PA en initiatieven voor content‑herkomst helpen, al zijn ze technisch te omzeilen. OpenAI, Google en Adobe ondersteunen deze standaarden, maar brede adoptie kost tijd.
Voor media en publieke instellingen is de les helder: combineer menselijk toezicht met duidelijke labeling en klachtenprocedures. Werk afspraken uit met platforms over ranking en ontlabelde duplicaten. Investeer in dataveiligheid en juridische checklists rond AVG en AI‑Act.
De markt beweegt richting “minder, maar beter”. Uitgevers die investeren in verificatie en auteursrecht, en adverteerders die transparante ketens eisen, houden AI‑slop beter buiten de deur. Dat is goed voor lezers, merken en het publieke debat in Nederland en de EU.
