In België zorgt de zaak-Vandermeersch deze week voor beroering in de mediasector. Een topman zette stevig in op generatieve AI in de redactie, met snelle kostenbesparing als doel. De gok leidde tot fouten, onrust en vragen over verantwoordelijkheid. Het debat raakt ook Nederland, waar uitgevers en omroepen naar dezelfde technologie kijken onder de Europese AI-verordening en de AVG.
AI-gok splijt redacties
Generatieve systemen zoals ChatGPT van OpenAI en Gemini van Google beloven snelheid, maar maken ook geregeld feitelijke fouten. In redacties leidt dat tot druk op controle en eindredactie. Als die stap ontbreekt, komt de betrouwbaarheid van nieuws direct in gevaar.
In de zaak-Vandermeersch draait het om tempo en transparantie. Medewerkers willen heldere regels: wanneer mag een algoritme teksten samenvatten, en wanneer níet? Publiek en adverteerders verwachten bovendien dat AI-gebruik zichtbaar wordt gemaakt.
Vlaamse en Nederlandse beroepsorganisaties, zoals VVJ en NVJ, benadrukken het principe “mens-in-de-lus”. Dat betekent dat een journalist altijd eindverantwoordelijk is. Zonder deze stap vergroot de kans op misleiding en reputatieschade.
Hallucinatie: wanneer een AI-systeem heel overtuigend onjuiste informatie produceert.
Juridische plichten onder EU-wet
De Europese AI-verordening (AI Act) stelt op het moment van schrijven transparantie-eisen aan generatieve systemen. Leveranciers van zogeheten general-purpose AI (GPAI) moeten onder meer samenvattingen van trainingsdata publiceren en risico’s beperken. Uitgevers die zulke modellen inzetten, moeten het gebruik labelen en interne controles vastleggen.
Daarnaast geldt de AVG. Prompts en trainingsdata met persoonsgegevens vallen onder dataminimalisatie en een duidelijke verwerkingsgrond. Wie Amerikaanse cloudmodellen inzet, moet afspraken en passende waarborgen regelen, bijvoorbeeld via het EU-U.S. Data Privacy Framework.
Ook auteursrecht speelt een rol. De EU-richtlijn digitale auteursrechten vraagt zorg bij hergebruik van archieven en foto’s. Zonder toestemming of licentie kan AI-ondersteunde productie leiden tot claims van makers of beeldbanken.
Kwaliteit kost tijd en geld
De verleiding is groot om AI in te zetten voor koppen, samenvattingen en beeld. Maar besparing aan de voorkant kan extra kosten achteraf opleveren: correctierondes, rectificaties en klantenservice. Reputatieschade laat zich moeilijk begroten en raakt abonnees en adverteerders.
Nieuwsorganisaties in Europa experimenteren daarom gecontroleerd. Tools als Whisper (spraak-naar-tekst) en Adobe Firefly (AI-beeld met content credentials) worden ingezet met duidelijke drempels. Dat levert meetbare tijdwinst op zonder de journalistieke kern uit te hollen.
De zaak-Vandermeersch laat zien dat beleid voor gebruik, labeling en archivering vaak ontbreekt. Zonder risicobeoordeling, logging en audit-trails is verantwoording lastig. Dat staat op gespannen voet met zowel de AI Act als interne compliance-eisen.
Personeel en ondernemingsraad
AI verandert taken in de redactie. In Nederland en België betekent dit overleg met de ondernemingsraad en duidelijke taakafspraken. Training in prompten, factchecking en bronvermelding hoort daarbij.
Functies verschuiven richting dataredactie en verificatie. Die verschuiving moet eerlijk en transparant verlopen. Anders ontstaat werkdruk en uitval op cruciale plekken, zoals eindredactie en beeldcontrole.
Uitgevers die tijdig investeren in scholing en kwaliteitscontrole, beperken risico’s. Ze voldoen bovendien beter aan de Europese eisen die gefaseerd ingaan. Dat helpt bij aanbestedingen en samenwerkingen met publieke instellingen.
Wat nu nodig is
Stel een publiek AI-beleid op met drie lagen: waar AI niet mag, waar het mag met menselijke controle, en waar het veilig te automatiseren is. Leg vast welke modellen gebruikt worden, met versienummers en leveranciers. Koppel hieraan een procedure voor incidenten en rectificaties.
Introduceer content provenance, zoals C2PA-watermerken, om AI-bewerking zichtbaar te maken. Gebruik detectietools met beleid: ze zijn foutgevoelig en nooit sluitend. Publiceer bij AI-gebruik een korte toelichting onder het stuk of in de colofon.
Maak tot slot een DPIA (gegevensbeschermingseffectbeoordeling) bij gebruik van externe AI-diensten. Dat dekt privacy, beveiliging en bewaartermijnen af. Het verkleint de kans op boetes en juridische vertraging.
Les uit de zaak
De kernles uit de zaak-Vandermeersch: snelheid zonder vangnet wordt duur. Journalistieke waarde ontstaat door context, verificatie en vakmanschap, niet alleen door outputvolume. AI kan helpen, maar onder strakke regie.
Voor Nederlandse en Belgische nieuwsredacties is de timing cruciaal. De AI-verordening en bestaande AVG-regels zetten het kader, op het moment van schrijven met oplopende verplichtingen in 2025 en 2026. Wie nu orde op zaken stelt, voorkomt improvisatie later.
De prijs van de AI-gok is dus meer dan rekenkracht en licenties. Het gaat om vertrouwen, juridische zekerheid en duurzame kwaliteit. Dat vraagt om keuzes die techniek, mensen en regels met elkaar verbinden.
