Nederlandse leraren zetten steeds vaker generatieve AI in om tijd te besparen. In basisscholen en middelbare scholen helpen ChatGPT (OpenAI), Gemini (Google) en Microsoft Copilot bij lesvoorbereiding en feedback. Dat gebeurt dit schooljaar in het hele land, vooral door hoge werkdruk en lerarentekorten. De inzet kan efficiëntie opleveren, maar vraagt duidelijke afspraken over AVG en de Europese AI-verordening.
Docenten besparen kostbare tijd
Veel leraren gebruiken chatbots om lesopzetten te schetsen in plaats van vanaf nul te beginnen. Het systeem maakt dan een eerste opzet, die de docent aanpast aan niveau en klas. Ook formats voor oudermails en rubric-criteria worden snel gegenereerd. Zo blijft er meer tijd over voor contact met leerlingen.
ChatGPT en Gemini leveren varianten voor verschillende niveaus of leervoorkennis. Dat helpt bij differentiatie in de klas, zonder extra avonden werk. Copilot in Microsoft 365 zet notities om in overzichtelijke taken. Handig voor sectievergaderingen en PTA-planning.
Voor toetsvoorbereiding maken docenten vraagvoorstellen en uitlegkaartjes met AI. De docent controleert vervolgens inhoud en toon. Tools zoals LessonUp en Snappet bieden al digitale leermiddelen; sommige uitbreiden deze met AI-functies. Scholen testen deze functies stap voor stap, vaak in kleine pilots.
Wat leraren wel en niet doen
Leraren gebruiken AI vooral voor ideeën, formats en eerste versies. Ze vermijden het invoeren van persoonsgegevens of gevoelige casussen. Voor cijfers en beoordeling nemen ze zelf de eindbeslissing. De AI werkt als assistent, niet als beoordelaar.
Generatieve systemen kunnen hallucineren: ze verzinnen soms feitelijke onjuistheden. Daarom controleren docenten bronnen en laten ze leerlingen bewijs zoeken. Het systeem is sterk in structuur en taal, zwakker in exacte feiten. Kritisch blijven is dus standaardprocedure.
Generatieve AI is software die op basis van voorbeelden nieuwe inhoud maakt, zoals tekst, code of beeld.
Een “prompt” is de opdracht die je aan het model geeft. Heldere prompts leveren betere resultaten op. Veel scholen delen voorbeeldprompts voor lesontwerpen en feedbackzinnen. Zo leren teams veilig en efficiënt werken met dezelfde werkwijze.
Privacy en AVG als randvoorwaarde
De AVG vereist dat scholen dataminimalisatie toepassen. Dat betekent: geen namen, cijfers of herleidbare casussen in publieke chatbots. Verwerking van onderwijsdata vraagt een verwerkersovereenkomst en passende beveiliging. Publieke accounts zonder afspraken zijn daarvoor niet geschikt.
Microsoft Copilot for Education en Gemini for Google Workspace kunnen binnen het schooldomein draaien. Scholen moeten dan instellingen controleren en loggen welke data wordt verwerkt. OpenAI biedt zakelijke varianten met extra waarborgen, maar scholen hebben nog steeds contracten en DPIA’s nodig. Een DPIA is een risicoanalyse voor privacy bij nieuwe technologie.
Kennisnet en SIVON publiceren op het moment van schrijven praktische handreikingen en inkoopcriteria. Zij adviseren duidelijke doelen, beperkte datasets en versleuteling. Toegang tot AI-functies wordt vaak beperkt tot personeel. Leerlingen krijgen alleen toegang in gecontroleerde pilots met toestemming en uitleg.
AI-verordening raakt het onderwijs
De Europese AI-verordening (AI Act) zet onderwijsbeoordeling aan als hoog-risico toepassing. Bij systemen die prestaties of gedrag van leerlingen medebepalen gelden strenge eisen. Denk aan risicobeheer, documentatie en menselijke controle. Scholen die zulke systemen inzetten worden mede-verantwoordelijk als “deployer”.
Generatieve chatbots vallen onder generieke of foundation-modellen met transparantieplichten. Leveranciers moeten laten zien hoe modellen zijn getraind en welke beperkingen er zijn. Scholen moeten leerlingen informeren als een AI-systeem wordt gebruikt. Ook moeten ze een klachtenroute inrichten.
Voor Nederland betekent dit dat bestuurders beleid en auditsporen moeten voorbereiden. Een stappenplan met doel, risico’s, en evaluatie wordt standaard. Inspectie en Autoriteit Persoonsgegevens letten op naleving bij publieke instellingen. Dat brengt duidelijkheid, maar ook extra organisatie.
Scholen vragen duidelijke richtlijnen
Besturen stellen op het moment van schrijven interne kaders op. Ze beschrijven waarvoor AI wel en niet wordt gebruikt. Ook leggen ze vast welke tools zijn goedgekeurd. Zo weten teams waar ze aan toe zijn.
Professionalisering is nodig om valkuilen te vermijden. Trainingen gaan over veilig prompten, broncontrole en bias. Bias betekent dat het systeem systematisch verkeerde aannames maakt. Docenten leren signalen herkennen en corrigeren.
Tot slot meten scholen of AI echt tijd scheelt. Een eenvoudige nulmeting en evaluatie na een semester helpt. Werkt het, dan volgt bredere uitrol. Werkt het niet, dan stopt de pilot zonder verplichting.
Techniek werkt, maar niet blindelings
AI versnelt routinewerk, maar vervangt geen vakmanschap. De context van klas, leerling en schooldoelen blijft menselijk werk. Leraren toetsen daarom elke AI-output op juistheid en passend taalgebruik. Dat verhoogt kwaliteit én vertrouwen.
Leveranciers verbeteren modellen continu, maar foutloos zijn ze niet. Bronvermelding ontbreekt vaak of is onnauwkeurig. Voor feitelijke content gebruiken docenten bij voorkeur betrouwbare bronnen. AI helpt dan bij vorm en structuur, niet bij de waarheid.
De balans wordt: AI voor eerste versies, de docent voor de eindredactie. Bij privacy-gevoelige taken blijft de school voorzichtig. Met heldere regels, de AVG en de AI Act als kader kan dit verantwoord. Zo wint de leraar tijd zonder risico’s te negeren.
