Meta en BuzzFeed liggen opnieuw onder het vergrootglas. Beide Amerikaanse mediabedrijven zetten kunstmatige intelligentie breder in, met zichtbare gevolgen in Europa en Nederland. De afgelopen weken valt op dat Meta vaag blijft over data, modellen en meetresultaten, terwijl BuzzFeed zijn AI-gebruik duidelijker labelt. Dat is relevant nu de Europese AI-verordening en Digital Services Act strengere transparantie eisen.
Meta blijft onduidelijk
Meta presenteert zijn assistent Meta AI en de Llama 3-modellen als “open”, maar deelt weinig over de herkomst van trainingsdata. Het bedrijf publiceert geen volledige datasets en geeft beperkte informatie over hoe de systemen zijn getest. Daardoor is lastig te beoordelen hoe het model presteert bij veiligheid, bias en auteursrecht. Voor Nederlandse gebruikers en organisaties maakt dat risico’s moeilijk in te schatten.
Meta zegt ook AI-beelden op Facebook en Instagram te labelen met watermerken en metadata. In de praktijk blijken die signalen niet altijd betrouwbaar, met zowel gemiste als onterechte labels. Voor makers en nieuwsredacties is dat een probleem, omdat het vertrouwen in beeldmateriaal daalt. Het onderstreept de noodzaak van duidelijke bronvermelding en verificatie.
De licenties van Llama-modellen laten hergebruik toe, maar zijn geen echte open-source licenties. Zo ontbreken vrijgave van trainingsdata en volledige build-recepten. Ook zijn er beperkingen in het gebruik, bijvoorbeeld in commerciële contexten. Dat maakt het lastig voor Europese overheden en bedrijven die transparantie moeten aantonen.
BuzzFeed labelt AI-gebruik
BuzzFeed experimenteert al langer met generatieve systemen, zoals AI die quizzen of service-artikelen helpt maken. Generatieve AI is software die zelf tekst of beeld kan produceren. Het bedrijf plaatst bij dit soort stukken zichtbare disclaimers over de rol van algoritmen. Ook verwijst het naar richtlijnen waarin staat dat redacteuren eindverantwoordelijk blijven.
Die aanpak is eenvoudiger voor lezers en adverteerders: je ziet wat door mensen is geschreven en wat door een model is voorgesteld. Duidelijke labeling verkleint de kans op misleiding en klachten. Het helpt bovendien om fouten sneller te corrigeren, omdat de herkomst van content bekend is. Voor Europese uitgevers kan dit een werkbare standaard zijn.
BuzzFeed toont ook aan dat AI vooral een hulpmiddel is, geen vervanging van redactie. Journalisten selecteren, checken en herschrijven. Zo blijft menselijke controle zichtbaar in de keten. Dat sluit aan bij eisen uit Europese wetgeving.
Open is niet open‑source
Veel bedrijven noemen hun modellen “open”, maar daarmee bedoelen ze vaak “open-weights”: je kunt de modelgewichten downloaden, niet de hele bouwketen. Modelgewichten zijn de getrainde parameters waarmee een systeem voorspellingen doet. Zonder trainingsdata en reproduceerbare stappen is audit beperkt mogelijk. Voor beleid en toezicht is dat verschil cruciaal.
Open-source AI betekent transparantie over code en hergebruik; open-weights betekent alleen toegang tot het getrainde model, meestal zonder volledige datasets.
Voor Llama 3 geeft Meta bijvoorbeeld geen complete datasetlijst of auteursrechtstatus per bron. Daardoor blijft onduidelijk in hoeverre beschermd werk is gebruikt. Europese partijen moeten dan zelf extra due diligence doen. Dat kost tijd en geld en verhoogt juridische risico’s.
BuzzFeed’s methode met duidelijke credits en disclaimers is eenvoudiger te toetsen. Je ziet welke tools zijn gebruikt en wie eindredactie deed. Daarmee ontstaat een auditspoor dat past bij Europese regels. Het maakt ook klachtenafhandeling richting lezers en rechthebbenden beter uitvoerbaar.
EU verplicht transparantie bij AI
De Europese AI-verordening verplicht aanbieders van generatieve systemen om duidelijk te maken dat inhoud synthetisch is. Ook moeten makers van algemene AI-modellen een beknopte samenvatting van trainingsdata publiceren. Dat helpt rechthebbenden en toezichthouders bij controle. Voor grote platforms gelden daarnaast risicoplichten onder de Digital Services Act.
Voor Meta, als zeer groot online platform in de EU, betekent dit: betere labeling, misinformatie beperken en onafhankelijke audits toestaan. Onbetrouwbare watermerken zijn dan niet genoeg; processen en rapportages moeten aantoonbaar werken. De AVG blijft bovendien gelden bij het verwerken van gebruikersdata. Dataminimalisatie en versleuteling horen daar standaard bij.
Uitgevers zoals BuzzFeed moeten transparant zijn over de inzet van algoritmen in redactionele processen. Heldere uitleg aan lezers en goede correctiemechanismen zijn geen luxe, maar wettelijke noodzaak. In Nederland kijken het Commissariaat voor de Media en de Autoriteit Persoonsgegevens mee. Transparantie verlaagt zo het risico op boetes en reputatieschade.
Gevolgen voor Nederlandse redacties
Nieuwsrooms die AI inzetten doen er goed aan vaste stappen te volgen: labelen, brondata loggen en menselijke eindredactie borgen. Een korte uitleg bij elk stuk over wat het systeem deed, helpt het publiek. Daarbij hoort ook een zichtbaar correctiebeleid. Zo blijft vertrouwen in berichtgeving behouden.
Voor publieke instellingen en overheden gelden extra eisen rond toegankelijkheid en betrouwbaarheid. Denk aan duidelijke melding bij AI-gegenereerde afbeeldingen of chatantwoorden op overheidswebsites. De Europese AI-verordening gevolgen overheid zijn concreet: beleid, logging en periodieke evaluatie zijn nodig. Leveranciers moeten kunnen aantonen dat hun datamodellen veilig en rechtmatig zijn.
Samenwerking met ombudsredacties en factcheckers kan risico’s verder beperken. Ook training van medewerkers in het herkennen van AI-fouten is zinvol. Tot slot is het verstandig contractueel vast te leggen welke modellen en datasets leveranciers gebruiken. Dat maakt audits en juridische afhandeling eenvoudiger.
Platforms moeten helder kiezen
Meta kan met echte transparantie en reproduceerbare tests veel onduidelijkheid wegnemen. Volledige documentatie, betere labeling en duidelijke limieten op modelgebruik helpen daarbij. Ook onafhankelijke benchmarks en rode-teamsessies met openbaar resultaat zijn nodig. Dat past bij de Europese verwachtingen.
BuzzFeed laat zien dat je met eenvoudige, zichtbare labels en redactionele controle al veel bereikt. Lezers weten dan wat ze krijgen en wie verantwoordelijk is. Dat voorkomt discussies achteraf over “verborgen” AI. Het maakt nieuwsproductie bovendien beter uitlegbaar voor toezichthouders.
De keuze is daarmee strategisch én juridisch. Mist rond datamodellen schaadt vertrouwen en verhoogt risico’s. Heldere uitleg, logging en governance leveren juist voordeel op in de EU. Voor Nederlandse organisaties wordt dat de norm, niet de uitzondering.
