Wikipedia zet nu kunstmatige intelligentie in om zichzelf te beschermen tegen de nadelen van AI. De Wikimedia Foundation werkt wereldwijd samen met grote AI-bedrijven en past eigen algoritmen toe op het platform. Het doel is misinformatie te beperken, bronvermelding te verbeteren en vrijwilligers te ondersteunen. Dit speelt nu, terwijl de Europese AI-verordening en de AVG strengere regels opleggen aan generatieve systemen en datagebruik.
Wikimedia kiest samenwerking
De Wikimedia Foundation levert via Wikimedia Enterprise gecontroleerde data aan AI-bedrijven. Partijen als OpenAI en Google krijgen zo snelle, schone en gelicentieerde toegang tot Wikipedia en Wikidata. In ruil daarvoor komen er duidelijke afspraken over naamsvermelding, teruglinken en verantwoord gebruik. Dat moet voorkomen dat chatbots Wikipedia kopiëren zonder bron of context.
Door samen te werken, houdt Wikipedia zicht op hoe modellen zijn inhoud gebruiken. Chatbots en zoeksystemen kunnen met de Enterprise-API direct naar de juiste pagina’s verwijzen. Dat geeft gebruikers meer herleidbaarheid en vermindert het risico op foutieve samenvattingen. Het past bij de open licentie van Wikipedia, maar dan met betere spelregels.
De keuze voor samenwerking is ook praktisch. AI-bedrijven hebben behoefte aan actuele, gestructureerde data. Wikipedia wil op zijn beurt dat hergebruik netjes gebeurt en dat er iets terugvloeit naar de gemeenschap. Zo probeert de stichting de balans te vinden tussen open kennis en massaal hergebruik door algoritmen.
Voor Europa is dit extra relevant. Veel Europese overheden en scholen leunen op Wikipedia-informatie. Duidelijke bronvermelding en actuele links helpen hen bij controle en verantwoording. Dat sluit aan bij de eisen uit de Europese AI-verordening over transparantie en traceerbaarheid.
Algoritmen helpen moderatoren
Wikipedia gebruikt al jaren machine learning om vandalisme en spam te signaleren. Het systeem ORES (Objective Revision Evaluation Service) geeft elke bewerking een risicoscore. Nieuwe infrastructuur, zoals Lift Wing, levert deze modellen sneller en stabieler aan. Vrijwilligers zien hierdoor eerder welke wijzigingen aandacht vragen.
Ook bij het schrijven ondersteunt AI voorzichtig. De functie Edit check kan aangeven dat een claim een bron mist en stelt citaties voor. Zulke suggesties zijn optioneel en vragen altijd om menselijke beoordeling. Zo blijft de redactie door mensen, met het algoritme als hulp.
De aanpak is “mens-in-de-lus”: het systeem sorteert, mensen beslissen. Dat verkleint de kans op onterechte terugdraaiingen. Het team traint modellen op open data en evalueert of ze bepaalde groepen niet benadelen. Fouten en vooroordelen in het model worden openbaar besproken en bijgesteld.
Privacy blijft een harde randvoorwaarde onder de AVG. De modellen verwerken vooral openbare bewerkingsgeschiedenis en meta-informatie. IP-adressen van anonieme bewerkers worden afgeschermd en zo snel mogelijk gehasht. Dataminimalisatie en beveiliging zijn verplicht, zeker nu AI-oplossingen op schaal draaien.
Afspraken over bronvermelding
Wikipedia-inhoud valt onder Creative Commons BY-SA. Hergebruik moet daarom naamsvermelding bevatten en onder dezelfde voorwaarden worden gedeeld. Met Enterprise-licenties en technische richtlijnen maakt Wikimedia het makkelijker om dat correct te doen. Chatbots kunnen bijvoorbeeld automatisch bronverwijzingen en links tonen bij samenvattingen.
Wikidata helpt daarbij met gestructureerde feiten en duidelijke verwijzingen. Dat maakt het eenvoudiger om bronnen consistent te citeren in verschillende talen. Voor eindgebruikers verhoogt dit de controleerbaarheid van AI-antwoorden. Het verlaagt ook juridische risico’s rond auteursrecht en licentieschending.
Voor Europese organisaties is dit praktisch en juridisch nuttig. De Europese AI-verordening vraagt transparantie over trainingsdata en herkomst van content. Goede bronvermelding ondersteunt dat en helpt bij audits en interne compliance. Dit speelt ook bij de “Europese AI-verordening gevolgen overheid”, waar publieke instellingen herleidbaarheid moeten kunnen aantonen.
Wikipedia-inhoud is gelicentieerd onder CC BY-SA: naamsvermelding is verplicht en delen moet onder dezelfde voorwaarden gebeuren.
Voldoen aan EU-regels
De AI-verordening classificeert risico’s en stelt eisen aan generatieve systemen. Aanbieders van algemene AI-modellen moeten meer openheid geven over gebruikte data en auteursrecht. Door data via Wikimedia Enterprise te betrekken, krijgen zij beter attribueerbare en gelicentieerde bronnen. Dat helpt om aan documentatie- en transparantieplichten te voldoen.
Voor Wikipedia zelf gelden vooral AVG-vereisten. Dataminimalisatie en duidelijke doelen voor verwerking zijn leidend. Bewerkingsdata zijn openbaar, maar gevoelige persoonsgegevens horen niet in artikelen of logboeken. Moderatietools moeten daarom functioneel zijn zonder onnodige extra data.
De Nederlandse publieke sector profiteert van deze duidelijkheid. Overheden, scholen en bibliotheken gebruiken Wikipedia vaak in lesmateriaal en publieksinformatie. Betere bronvermelding in AI-tools maakt controle eenvoudiger. Het ondersteunt ook toegankelijkheid en gelijke behandeling in digitale diensten.
Toezichthouders in de EU kijken intussen naar provenance-technieken, zoals watermerken en herkomstlabels. Wikipedia test waar mogelijk met standaarden die herkomst zichtbaar maken. Zo wordt het makkelijker om te zien of tekst door mensen of modellen is samengevat. Dit verkleint het risico op misleiding door generatieve systemen.
Risico’s en open vragen
Er blijven spanningen tussen open kennis en grote AI-bedrijven. Te ruime hergebruikrechten zonder terugkoppeling zouden de gemeenschap kunnen uitputten. Daarom streeft Wikimedia naar wederkerigheid: correcte bronvermelding, links en waar passend financiële bijdragen. Dat moet de vrijwillige infrastructuur overeind houden.
Ook inhoudelijke kwaliteit vraagt aandacht. AI-suggesties kunnen subtiele fouten of verouderde bronnen promoten. Wikipedia houdt daarom vast aan menselijke controle en transparantie over hulpmiddelen. Richtlijnen voor gebruik van AI-teksten worden door de gemeenschap vastgesteld.
Voor eindgebruikers is herleidbaarheid cruciaal. Als chatbots Wikipedia citeren, moeten links naar de originele pagina zichtbaar zijn. Zo kunnen lezers context en versies controleren. Dat verkleint het risico dat modelhallucinaties als feit worden gezien.
Tot slot speelt de lokale inbedding. Wikimedia Nederland werkt met onderwijs en bibliotheken aan mediageletterdheid rond AI. Trainingen leren studenten en ambtenaren hoe ze bronnen controleren en citeren. Daarmee wordt de keten van informatie, van model tot lezer, een stuk betrouwbaarder.
