Het Belgische tennisplatform Tennisplaza.be zet publiek uiteen hoe het kunstmatige intelligentie inzet. De redactie legt nadruk op transparantie en redactionele controle om kwaliteit te bewaken. Dit moet vertrouwen bij lezers vergroten en past bij de Europese AI-verordening (AI Act) en de AVG. Het beleid is relevant voor media en uitgevers die AI gebruiken.
Transparantie staat centraal
Tennisplaza zegt zichtbaar te maken wanneer algoritmen meeschrijven of helpen. Dat kan met een korte toelichting of een label onder het artikel. Zo weten lezers wat door mensen en wat met AI-assistentie tot stand kwam. Duidelijkheid vergroot vertrouwen en voorkomt verwarring over herkomst.
Generatieve AI is software die nieuwe tekst of beeld maakt op basis van voorbeelden. Bekende modellen zijn ChatGPT van OpenAI en Gemini van Google. Tennisplaza benoemt op het moment van schrijven geen specifieke tool. De redactie focust op het proces en de controle daarop.
Generatieve AI is software die nieuwe tekst, beeld of audio maakt uit voorbeelden.
Transparantie helpt ook bij correcties. Als een systeem een fout adviseert, kan de redactie uitleggen wat misging en wat is hersteld. Zo blijft het leerproces rond AI open, zonder de journalistieke standaard te verlagen. Dat past bij bredere afspraken in de mediasector.
Redactie blijft eindverantwoordelijk
AI levert suggesties, maar de redactie beslist. Dat heet human-in-the-loop: een mens controleert elke stap. Het systeem kan samenvattingen, opzetjes of alternatieve koppen voorstellen. De eindredactie controleert feiten, context en toon voor publicatie.
Een groot taalmodel (LLM) is een type AI dat patronen in tekst leert en daarop nieuwe zinnen voorspelt. Zulke modellen kunnen āhallucinerenā: overtuigend klinkende onjuistheden produceren. Daarom is bronverificatie door mensen noodzakelijk. De redactie blijft verantwoordelijk voor fouten en correcties.
AI krijgt geen vrije toegang tot gevoelige of ongepubliceerde informatie. Prompts worden beperkt tot wat nodig is voor de taak. Dit verkleint het risico op lekken of vermenging met andere datasets. Ook blijven morele keuzes en nieuwswaarde een menselijke afweging.
Aansluiting bij EU-regels
De Europese AI-verordening (AI Act) stelt transparantie-eisen, vooral bij synthetische media en generieke AI-modellen. Voor uitgevers betekent dat: maak duidelijk als content met AI is gegenereerd of gemanipuleerd, zeker bij beelden en audio. Het beleid van Tennisplaza sluit bij die lijn aan. Lezers krijgen context bij AI-bijdragen.
De AI Act werkt met risicoklassen. Journalistieke assistentietools vallen doorgaans in een lagere risicocategorie, maar transparantie blijft belangrijk. Bij deepfakes en stemklonen gelden zwaardere plichten. Door duidelijke labels en menselijk toezicht verkleint de redactie juridische en reputatierisicoās.
Daarnaast spelen auteursrecht en citaatrecht. AI mag de journalist niet losmaken van bronvermelding en eigen werk. Door bronnen te blijven noemen en bewerking te duiden, blijft de keten controleerbaar. Dat is ook in lijn met Europese jurisprudentie over creatieve bijdragen.
Privacy en AVG geborgd
De AVG verplicht tot dataminimalisatie: verwerk alleen wat nodig is. Daarom horen namen, contactgegevens of andere persoonsgegevens niet thuis in prompts. Waar AI-diensten persoonsgegevens kunnen raken, zijn verwerkersafspraken en versleuteling nodig. Tennisplaza zegt hier terughoudend mee om te gaan.
Wanneer AI in de cloud draait, is duidelijkheid over opslag en hergebruik belangrijk. Diensten mogen prompts niet voor eigen training gebruiken zonder toestemming. Uitgevers moeten dat controleren in de voorwaarden. Dit voorkomt ongewenste datadeling buiten de EU.
Lezersdata, zoals reacties en profielen, vallen ook onder de AVG. AI-analyse van gedrag vraagt een duidelijke grondslag en een opt-out. Door dit vooraf te regelen, blijven nieuwsvoorziening en privacy in balans. Dat is essentieel voor publiek vertrouwen.
Risicoās en beperkingen benoemd
AI kan snelle concepten maken, maar mist vaak nuance en lokale context. Dat speelt juist in sportjournalistiek, waar details en citaten tellen. Daarom gebruikt de redactie AI vooral voor ondersteunende taken. Denk aan taalcontrole of structuur, niet aan inhoudelijke primeurs.
Bias, of vooringenomenheid, is een bekend risico in datamodellen. Als trainingsdata scheef zijn, kan output ook scheef zijn. De redactie weegt zulke uitkomsten kritisch en past aan waar nodig. Dit voorkomt het klakkeloos overnemen van fouten uit het model.
Ook snelheid is geen excuus om verificatie over te slaan. Zeker rond live-evenementen blijft factchecking leidend. AI kan helpen met overzicht, maar niet beslissen wat waar is. Zo blijft de journalistiek maatgevend, niet het algoritme.
Wat lezers kunnen verwachten
Artikelen krijgen een duidelijk label als AI-assistentie is gebruikt. Correcties worden zichtbaar gemaakt, met uitleg waar passend. Lezers kunnen feedback geven als iets niet klopt. Dat maakt het proces controleerbaar en open.
De site test functies stap voor stap. Nieuwe AI-toepassingen komen pas live na redactionele toetsing. Waar beelden of audio zijn bewerkt, staat dat erbij. Dit geldt extra bij portretten en sportmomenten.
Voor media in Nederland en Belgiƫ biedt dit een werkbaar kader. Het verenigt innovatie met de AI Act en de AVG. En het houdt de journalistieke norm overeind: menselijk oordeel voorop, techniek als hulpmiddel. Dat is helder richting publiek en toezichthouders.
