In Nederland groeit een online actie om ChatGPT van OpenAI te boycotten. De oproep vraagt gebruikers en organisaties om te stoppen met het systeem, nu en publiek, uit zorg over privacy, auteursrecht en misinformatie. De actie speelt zich vooral af op sociale media en via petities. Ze wint deze week snel aan steun van makers, docenten en techprofessionals, ook met oog op de Europese AI-verordening en gevolgen voor overheid en onderwijs.
Actie wint snel steun
De initiatiefnemers vragen mensen om ChatGPT tijdelijk links te laten liggen. Zij vinden dat OpenAI meer moet uitleggen over welke teksten en data het model gebruikt. Ook willen ze garanties dat persoonsgegevens niet onnodig worden verwerkt. Tot die tijd pleiten zij voor terughoudendheid bij gebruik in werk, onderwijs en media.
Aan de actie doen op het moment van schrijven vooral schrijvers, journalisten, docenten en programmeurs mee. Bedrijven en instellingen worden opgeroepen het systeem uit te zetten in klantenservice en interne tools. Daarbij wordt gewezen op alternatieven die minder data verzamelen of lokaal draaien. De oproep gaat bewust alleen over ChatGPT, en niet over alle AI-toepassingen.
De kern van de kritiek is dat ChatGPT een zogenoemd taalmodel is: software die de volgende woorden voorspelt op basis van heel veel tekst. Dat werkt handig, maar kan ook fouten of verzinsels opleveren. Zo’n fout heet “hallucinatie” en kan mensen of organisaties schaden. De actievoerders willen daarom strengere eisen aan transparantie en correcties.
Critici noemen ChatGPT “het slechtste jongetje van een slechte klas”, omdat het systeem volgens hen het minst transparant is over trainingsdata en fouten.
Privacy en AVG zorgen
De actie wijst op de Algemene verordening gegevensbescherming (AVG). Die eist dat bedrijven een duidelijke wettelijke grondslag hebben voor het verwerken van persoonsgegevens, ook bij modeltraining. Daarnaast geldt dataminimalisatie: verzamel niet meer dan nodig. Mensen moeten bovendien hun gegevens kunnen inzien, verbeteren en laten wissen.
Toezichthouders in de EU onderzoeken al langer hoe ChatGPT met data omgaat. De Europese toezichtraad voor privacy heeft een werkgroep over ChatGPT opgezet. Nationale autoriteiten, waaronder de Autoriteit Persoonsgegevens, nemen daar aan deel. Hun oordeel bepaalt hoe streng de handhaving wordt in de lidstaten.
Een extra zorg is dat ChatGPT soms onjuiste feiten als waarheid presenteert. Dat raakt reputaties en kan leiden tot klachten of schadeclaims. Voor publieke diensten en onderwijs betekent dit dat er vooraf een privacyrisico-analyse nodig is. Ook moet worden vastgelegd welke data het systeem mag zien en hoe die worden versleuteld.
Auteursrecht en tekstmining
Makers en uitgevers vrezen dat hun werk zonder toestemming in trainingssets is beland. In de EU is tekst- en datamining toegestaan, maar rechthebbenden mogen zich via een opt-out verzetten. Dat kan onder meer via robots.txt of expliciete licentievoorwaarden. Uitgevers in Nederland en elders hebben daarom de OpenAI-crawler GPTBot geblokkeerd.
Er zijn in Europa verschillende paden zichtbaar. Sommige mediabedrijven sluiten licenties af voor gebruik van hun archieven. Anderen kiezen voor blokkeren of juridische stappen. De actie “Boycot ChatGPT” vraagt OpenAI om duidelijk te maken welke bronnen zijn gebruikt en op welke basis.
De Europese AI-verordening (AI Act) bevat specifieke plichten voor generieke AI-modellen. Zo moeten aanbieders samenvattingen van trainingsdata publiceren en rekening houden met auteursrechtelijke opt-outs. Dit vergroot de controleerbaarheid voor makers en toezichthouders. De actie ziet die plichten als steun voor hun eisen aan OpenAI.
OpenAI ligt onder druk
OpenAI stelt dat het Europese regels respecteert en dat GPTBot opt-outs volgt. Het bedrijf biedt gebruikers de mogelijkheid om chats niet te laten meetellen voor training. Ook is er een procedure om onjuiste informatie te laten verwijderen. Voor zakelijke klanten bestaat een beleid waarbij klantdata niet voor training worden gebruikt.
Toch vinden critici dat dit niet ver genoeg gaat. Zij willen een openbaar register met trainingsbronnen en duidelijke licentieovereenkomsten. Ook vragen ze om harde waarborgen tegen datalekken en misbruik. Zonder die stappen blijft het vertrouwen beperkt, zeggen zij.
Op het moment van schrijven onderhandelen meerdere AI-aanbieders met Europese rechthebbenden over licenties. Dat kan het juridische risico voor gebruikers verkleinen. Maar tot er structurele afspraken zijn, kiezen sommige organisaties voor een pauze. De boycotactie probeert die lijn breed ingang te doen vinden.
Europese regels worden strenger
De AI-verordening treedt gefaseerd in werking en raakt ook generieke AI, zoals ChatGPT. Overheden en scholen moeten vooraf toetsen of het gebruik past binnen de regels. Denk aan een DPIA, een verwerkersovereenkomst en heldere bewaartermijnen. Dit raakt direct de “Europese AI-verordening gevolgen overheid”.
Voor burgers betekent dit meer rechten en duidelijkheid. Wie schade lijdt door een fout van een AI-systeem, krijgt sterker juridisch houvast. Ook wordt transparantie over databronnen en prestaties verplicht. Dat maakt het makkelijker om fouten te vinden en te herstellen.
Voor bedrijven stijgen de compliance-kosten, maar ook de voorspelbaarheid. Leveranciers die nu al aan AVG en AI Act-eisen voldoen, krijgen een voordeel bij aanbestedingen. Dat stimuleert privacyvriendelijke en goed gedocumenteerde modellen. De boycotactie sluit aan bij die beweging richting striktere verantwoording.
Impact op onderwijs en media
Scholen en universiteiten staan voor praktische keuzes. Zij willen studenten digitale vaardigheden leren, maar ook plagiaat en datalekken voorkomen. Tijdelijke beperkingen of afgeschermde pilots kunnen een middenweg bieden. Heldere richtlijnen over brongebruik en citaten blijven nodig.
In de media speelt nog iets anders. Nieuwsredacties willen productiviteit, maar niet hun archieven gratis weggeven. Een licentiemodel met duidelijke voorwaarden lijkt daar het meest kansrijk. Tot die tijd kiezen sommige redacties voor blokkeren van crawlers en het uitzetten van generatieve hulpmiddelen.
Voor het brede publiek blijft de boodschap nuchter. Gebruik AI, maar ken de grenzen. Deel geen gevoelige informatie en controleer belangrijke uitkomsten. De uitkomst van de boycotactie kan bepalen hoe snel ChatGPT zich aanpast aan Europese normen.
