In Nederland staat deze week een prangende vraag centraal: zonder mensen geen AI. Journalisten, onderzoekers en bestuurders bespreken hoe systemen zoals ChatGPT van OpenAI en Google Gemini steunen op menselijk werk. Het gesprek draait om eerlijk werk, transparantie en de Europese AI-verordening gevolgen overheid. Doel is duidelijke afspraken voor nieuwsrooms, publieke instellingen en bedrijven.
Menselijk werk onzichtbaar
Kunstmatige intelligentie leert van datasets, een verzameling voorbeelden die mensen verzamelen en beoordelen. Grote modellen zoals ChatGPT, Gemini en Llama van Meta worden bijgeschaafd met menselijke feedback. Dat heet āreinforcement learning from human feedbackā, een simpele manier om een model beter te laten antwoorden. Achter elk automatisch antwoord zit dus veel handwerk.
Dat handwerk bestaat uit labelen, modereren en testen. Mensen filteren schadelijke inhoud en geven voorbeelden van goede reacties. Zij corrigeren ook fouten, zoals hallucinaties van het model. Het resultaat oogt autonoom, maar is dat niet.
Dit werk is vaak laagbetaald en internationaal verspreid. Europese afnemers, ook in Nederland, hebben hier een zorgplicht bij inkoop en contracten. Heldere eisen over loon, veiligheid en psychologische ondersteuning zijn nodig. Zo wordt verantwoordelijkheid eerlijk verdeeld in de keten.
āZonder mensen geen AI.ā
Europese AI-verordening gevolgen overheid
De AI-verordening (AI Act) deelt toepassingen in risicoklassen in. Hoe hoger het risico, hoe strenger de plichten voor ontwerp, documentatie en toezicht. Voor algemene modellen (GPAI) zoals GPT-4 en Gemini gelden extra transparantie-eisen. Op het moment van schrijven worden onderdelen gefaseerd ingevoerd tot en met 2026.
Publieke instellingen moeten gebruikers informeren als zij met een chatbot spreken. Ook moeten zij synthetische media herkenbaar maken. Logging, risicoanalyses en menselijk toezicht worden standaard. Dat raakt gemeenten, uitvoeringsorganisaties en onderwijsinstellingen direct.
Leveranciers van GPAI-modellen moeten samenvattingen geven van gebruikte trainingsdata. Zij moeten ook auteursrecht respecteren en technische documentatie leveren. Dit helpt afnemers in Europa om aan regels te voldoen. Het maakt contracteren en auditen concreter.
Voor redacties betekent dit heldere disclosure naar het publiek. Leg uit wanneer een algoritme teksten samenvat of beelden bewerkt. Zorg altijd voor een menselijke eindredactie. Dat sluit aan bij de plicht om misleiding te voorkomen.
Auteursrecht en datamining
De EU kent uitzonderingen voor text- en datamining (TDM). Rechthebbenden kunnen een āopt-outā instellen via machineleesbare signalen. In Nederland is dit opgenomen in de Auteurswet. Wie niet wil dat zijn werk wordt gebruikt, moet dat technisch kenbaar maken.
Techbedrijven bieden daarvoor opties. OpenAI en Google ondersteunen no-ai of no-image-ai metatags en robots.txt-signalen. Dit is nuttig, maar niet waterdicht. Contractuele afspraken blijven daarom belangrijk.
Voor nieuwsuitgevers en makers speelt ook de vraag naar vergoeding. Training op beschermde content kan licenties vereisen. Collectieve afspraken en duidelijke metadata helpen claims te onderbouwen. Zo ontstaat een eerlijker balans tussen innovatie en rechten.
Transparantie over AI-gebruik
Transparantie begint bij herkenbaar maken van AI-inhoud. Watermarking is een digitale stempel in tekst, beeld of audio. Content credentials (C2PA) voegen herkomstinformatie toe. Beide helpen hergebruik te volgen en misleiding te beperken.
OpenAI, Google en Meta testen watermerken en herkomstlabels. Technieken zijn nuttig, maar nog kwetsbaar voor verwijdering of vervalsing. Combineer daarom techniek met redactionele checks. Publiceer ook een korte uitleg van de gebruikte systemen.
Onder de AVG geldt informatieplicht bij verwerkingen van persoonsgegevens. Leg uit welke data naar een model gaat en waarom. Pas dataminimalisatie toe en versleutel waar mogelijk. De Autoriteit Persoonsgegevens ziet hierop toe.
Praktische stappen voor redacties
Begin met een intern AI-beleid. Beschrijf toegestane tools, doelen en risicoās. Wijs een verantwoordelijke aan en houd een logboek bij. Evalueer het beleid elk kwartaal.
Kies systemen die Europese regels ondersteunen. Vraag naar datapaden, locatie en retentie. Gebruik waar mogelijk eigen of afgeschermde modellen. Deel geen vertrouwelijke bronnen met externe chatbots.
Train medewerkers in veilig gebruik en bronkritiek. Laat een mens altijd eindverantwoordelijk blijven voor publicatie. Check feiten, namen en cijfers extra bij AI-gegenereerde samenvattingen. Meld aan lezers wanneer AI heeft geholpen.
Stel scherpere eisen bij inkoop. Vraag leveranciers om trainingsdata-samenvattingen, auteursrechtbeleid en AI Act-conformiteit. Neem opt-out-signalen en C2PA-ondersteuning op in contracten. Zo borg je kwaliteit Ʃn publieke verantwoording.
