Hoogleraar stopt cijfers door AI: wat doet ChatGPT (OpenAI) met toetsen?

  • Home
  • >
  • Blog
  • >
  • Nieuws
  • >
  • Hoogleraar stopt cijfers door AI: wat doet ChatGPT (OpenAI) met toetsen?

Amsterdam, 26 januari 2026 17:50 

Een hoogleraar in het hoger onderwijs stopte recent met cijfers geven voor essays. Reden: studenten kunnen met ChatGPT van OpenAI en Gemini van Google makkelijk teksten laten schrijven. Daardoor is het lastig om eerlijk te beoordelen wat een student zelf kan. Het nieuws voedt het debat over de Europese AI-verordening (AI Act) en wat die betekent voor het onderwijs.

AI bemoeilijkt eerlijke toetsing

Grote taalmodellen zijn algoritmen die met statistiek zinnen voorspellen en zo nieuwe tekst maken. Daarmee wordt een net essay snel geproduceerd, zonder echte kennis of eigen analyse. Voor een docent is dan onduidelijk wie de auteur is: het systeem of de student.

De hoogleraar zegt dat het doel van een essay oefenen is in redeneren en bronnen gebruiken. Als een model dat werk overneemt, verdwijnt de leercurve. De docent koos daarom voor een pauze met cijfers, om de toetsvorm te herzien.

De stap is niet bedoeld als verbod op kunstmatige intelligentie. De docent wil transparantie en duidelijke grenzen. Studenten mogen hulpmiddelen gebruiken, maar moeten het vermelden en de keuzes kunnen uitleggen.

ā€œIk hoef helemaal geen goed essay.ā€

Mondeling en handgeschreven terug

Als alternatief kiest de docent vaker voor mondelinge gesprekken na inleveren. In zo’n gesprek toont een student begrip, ook zonder perfecte formulering. Dit vermindert de kans dat een buitenstaander, mens of model, het werk heeft gemaakt.

Ook schrijftijd in de klas en handgeschreven opdrachten keren terug. Dat beperkt de inzet van externe tools tijdens het schrijven. Het is arbeidsintensiever, maar geeft volgens docenten meer zicht op het leerproces.

Meerdere opleidingen in Nederland testen vergelijkbare vormen. Denk aan korte kennistoetsen vooraf en een mondelinge verdediging achteraf. Zo wordt het bovendien minder aantrekkelijk om standaardteksten door een model te laten genereren.

Detectietools zijn onbetrouwbaar

AI-detectie in systemen als Turnitin en GPTZero belooft hulp, maar werkt wisselend. Zulke detectors geven scores op ā€œAI-achtigā€ taalgebruik. Die scores slaan geregeld de plank mis, vooral bij korte teksten of bij studenten die geen moedertaalsprekers zijn.

Valse positieve uitslagen kunnen grote gevolgen hebben voor een student. Daarom waarschuwen universiteiten om detectie niet als bewijs te gebruiken. Een gesprek over de aanpak en bronnen blijft noodzakelijk.

Bovendien zijn detectors makkelijk te omzeilen. Met lichte herschrijving of extra fouten daalt de score al. Alleen vertrouwen op detectie levert dus schijnzekerheid op.

AVG begrenst controle

Toetsen en controleren raken aan privacy en de AVG, de Europese privacywet. Het uploaden van essays naar een externe detector is verwerking van persoonsgegevens. Dat vraagt om een duidelijke grondslag, dataminimalisatie en een bewaartermijn die kort is.

Onderwijsinstellingen moeten studenten helder informeren en een Data Protection Impact Assessment uitvoeren bij risicovolle tools. Ook is het verstandig om opslag in buitenlandse clouds te vermijden of goed te contracteren. Transparantie over welke data naar welke leverancier gaat is verplicht.

Als een externe dienst, zoals een proctoring- of detectieplatform, meeleest of -kijkt, is dat extra gevoelig. Versleuteling en strikte toegang zijn dan nodig. Zonder die waarborgen ligt gebruik juridisch en maatschappelijk onder vuur.

AI Act dwingt transparantie

De Europese AI-verordening zet generatieve systemen zoals GPT-4 en Gemini in de categorie algemene-doeleinden-AI. Aanbieders moeten transparanter worden over herkomst van data en bekende beperkingen. Ook moeten ze duidelijke gebruikslabels bieden voor synthetische inhoud.

Voor onderwijs raakt de AI Act vooral aan inzet van toezichtsoftware, profileringssystemen en biometrie. Zulke toepassingen vallen sneller in een hogere risicoklasse, met strenge eisen voor testen en toezicht. Dat maakt brede uitrol van automatische controle minder vanzelfsprekend.

Instellingen doen er goed aan hun leveranciers hierop te toetsen. Vraag naar modeldocumentatie, opslaglocatie en evaluaties van bias en fouten. Dat sluit aan bij publieke waarden in onderwijs en onderzoek in Nederland en de EU.

Heldere regels voor studenten

De kern voor nu: maak afspraken over toegestaan AI-gebruik per vak. Sta hulpmiddelen toe voor brainstormen of structuren, maar eis bronvermelding en een eigen reflectie. Zo blijft het leerdoel centraal, niet de vorm.

Leg ook vast welke bewijsstukken een student moet kunnen tonen. Denk aan notities, tussenversies en literatuurlijsten. Dat helpt bij twijfel en maakt beoordeling voorspelbaarder.

De boodschap van de hoogleraar is daarmee breder dan ƩƩn vak. Zet de didactiek voorop en kies toetsvormen die begrip meten. Laat AI bestaan, maar niet de uitkomst bepalen.


Over Dave

Hoi, ik ben Dave – schrijver, onderzoeker en nieuwsgierige geest achter AIInsiders.nl. Ik hou me bezig met de manier waarop technologie ons leven verandert, en vooral: hoe we dat een beetje kunnen bijbenen. Van slimme tools tot digitale trends, ik duik graag in de wereld achter de schermen.

Mijn stijl? Lekker helder, soms kritisch, altijd eerlijk. Geen onnodig jargon of overdreven hype, maar praktische inzichten waar je echt iets aan hebt. AI is niet eng of magisch – het is interessant, en ik help je graag om dat te zien.

{"email":"Email address invalid","url":"Website address invalid","required":"Required field missing"}

Misschien ook interessant

>