De Engelstalige Wikipedia verbiedt voortaan het gebruik van generatieve AI bij het schrijven en herschrijven van artikelen. De vrijwilligersgemeenschap nam het besluit deze week, uit zorgen over betrouwbaarheid, auteursrecht en misinformatie. Het gaat om systemen als OpenAI’s ChatGPT, Google Gemini en Anthropic Claude. De stap raakt ook aan transparantie‑eisen uit de Europese AI‑verordening, met mogelijke gevolgen voor overheid en platforms in de EU.
Engelstalige Wikipedia verbiedt AI
De community achter de Engelstalige Wikipedia heeft een nieuwe regel vastgesteld: encyclopedische tekst mag niet door een generatief model zijn geschreven of herschreven. Het verbod geldt voor hoofdartikelen en andere inhoudelijke pagina’s van de encyclopedie. Doel is dat alle tekst aantoonbaar door mensen is gemaakt en te herleiden is tot betrouwbare, controleerbare bronnen.
Het besluit noemt expliciet populaire AI‑systemen zoals ChatGPT, Gemini en Claude, maar geldt ook voor vergelijkbare modellen. Zowel volledige artikelen als losse alinea’s, samenvattingen of parafrases die uit een AI komen, zijn niet toegestaan. Ook het achteraf “polijsten” van AI‑uitvoer tot encyclopedietekst valt onder het verbod.
De kern blijft het aloude Wikipedia‑principe: verifieerbaarheid boven alles. Informatie moet controleerbaar zijn via onafhankelijke bronnen, niet via een algoritme dat zonder bronvermelding tekst produceert. Met de nieuwe regel krijgt dat principe nu een expliciete AI‑paragraaf.
Zorgen om betrouwbaarheid en plagiaat
Generatieve AI kan “hallucineren”: het model verzint ogenschijnlijk feitelijke details die niet kloppen. Zulke fouten zijn vaak moeilijk te herkennen, zeker als de toon overtuigend is. Voor een encyclopedie die draait op controleerbare bronnen levert dat een onaanvaardbaar kwaliteitsrisico op.
Daarnaast speelt auteursrecht. AI‑uitvoer kan sterk leunen op trainingsdata, waaronder mogelijk beschermde teksten. In de EU gelden regels voor tekst‑ en datamining en kunnen rechthebbenden een opt‑out gebruiken; dat maakt hergebruik van AI‑tekst juridisch ingewikkeld. Door AI‑gegenereerde inhoud te weren, verkleint Wikipedia het risico op verborgen inbreuken.
De richtlijn sluit aan op bestaande huisregels als “geen origineel onderzoek” en “noem je bron”. AI‑tekst heeft geen eigen, controleerbare herkomst en mengt vaak feiten en interpretatie. Dat maakt het lastig voor redacteuren en lezers om de betrouwbaarheid te toetsen.
Generatieve AI is software die op basis van grote hoeveelheden voorbeelddata nieuwe tekst of beelden maakt, zonder directe verwijzing naar een specifieke bron.
Beperkte inzet blijft mogelijk
De gemeenschap laat ruimte voor laagrisico‑taken, zoals spellingcontrole, opmaak of sjabloonbeheer. Zulke hulpjes voegen geen nieuwe inhoud toe en veranderen de betekenis niet. Encyclopedische tekst zelf moet handwerk blijven.
AI mag worden gebruikt om mogelijke bronnen te vinden, mits een mens de originele publicaties leest en beoordeelt. Het rechtstreeks plakken of parafraseren van AI‑uitvoer is niet toegestaan, ook niet met latere correcties. De verantwoordelijkheid voor bronkeuze en formulering ligt bij de redacteur.
Bestaande vertaalhulpmiddelen met menselijke eindredactie blijven gebruikelijk binnen Wikimedia‑projecten. Daarbij geldt dat een vertaling grondig moet worden nagelezen en verbeterd, zodat de tekst klopt en past bij de stijl van Wikipedia. De nieuwe AI‑regel verandert dat uitgangspunt niet, maar verduidelijkt dat generatieve modellen geen vervanging zijn voor menselijke auteurs.
Strakkere moderatie en sancties
Moderatoren krijgen meer houvast om AI‑tekst te verwijderen. Bij twijfel kunnen zij om bronnen vragen en bewerkingen terugdraaien als die niet verifieerbaar zijn. Nieuwe pagina’s die duidelijk door een model zijn geschreven, kunnen snel worden verwijderd.
Automatische AI‑detectors worden niet leidend, omdat ze onbetrouwbaar zijn en vaak valse positieven geven. Handhaving richt zich op het naleven van de basisregels: bronvermelding, controleerbaarheid en transparantie over werkwijze. Gedragspatronen en inhoudelijke toetsing wegen zwaarder dan technische vermoedens.
Bij herhaald overtreden kunnen tijdelijke of langere blokkades volgen. De maatregel moet spam verminderen en de werkdruk voor vrijwilligers verlichten. Zo blijft de tijd van redacteuren gaan naar inhoudelijke kwaliteitsbewaking in plaats van AI‑opruimwerk.
Europese regels geven context
De Europese AI‑verordening stelt, op het moment van schrijven, transparantie‑eisen aan aanbieders van zogeheten general‑purpose AI. Dat raakt modellen als ChatGPT en Gemini, onder meer via documentatieplichten over gebruikte data. Door AI‑tekst te weren, voorkomt Wikipedia dat onduidelijkheid bij leveranciers doorsijpelt in encyclopedische inhoud.
Ook de Europese auteursrechtrichtlijn voor digitale eengemaakte markt speelt mee. Rechthebbenden kunnen tekst‑ en datamining beperken, wat de herkomst van AI‑uitvoer juridisch mistig maakt. Wikipedia’s keuze sluit aan bij het veilige pad: alleen herbruikbare, goed gelicentieerde en controleerbare bronnen.
Voor overheden, scholen en bibliotheken in Nederland kan dit vertrouwen in Wikipedia versterken. De maatregel maakt duidelijk hoe de encyclopedie omgaat met AI‑risico’s, terwijl de “Europese AI‑verordening gevolgen overheid” en publieke instellingen scherp houdt op transparantie. Lezers weten zo beter wat zij kunnen verwachten van de kwaliteit van artikelen.
Gevolgen voor Nederlandstalige wiki’s
Elke taalversie van Wikipedia beslist zelf over redactieregels. De Nederlandstalige Wikipedia kan de Engelstalige lijn volgen, aanpassen of eigen afspraken maken. Discussies daarover lopen vaak via gemeenschapsoverleggen en peilingen.
Voor Nederlandse vrijwilligers verandert de dagelijkse praktijk vooral in duidelijkheid: AI‑gegenereerde tekst hoort niet in artikelen thuis. Hulp bij spelling en opmaak kan, maar inhoud komt uit bronnen, niet uit modellen. Dat verlaagt de instap voor nieuwe redacteuren: de spelregels zijn eenvoudiger uit te leggen en te handhaven.
Lezers en media‑gebruikers in de Benelux krijgen daarmee een heldere belofte: menselijke redactie, controleerbare referenties en minder kans op AI‑fouten. In een tijd van snelle automatisering zet Wikipedia zo een nuchtere, Europese‑proof standaard neer. Dat past bij het publieke karakter van de encyclopedie en haar brede gebruik in onderwijs en overheid.
