Een student Kunstmatige Intelligentie aan de Universiteit Utrecht leverde recent een werkstuk in met opvallende AI-sporen. In het document bleven standaardzinnen en instructies van ChatGPT zichtbaar. Het incident kwam aan het licht bij de beoordeling en speelde zich af binnen de opleiding in Utrecht. Het zet de toon voor een bredere discussie over regels, detectie, privacy en de Europese AI-verordening gevolgen overheid en onderwijs.
AI-sporen verraden student
De student maakte gebruik van ChatGPT van OpenAI en vergat de sporen te verwijderen. Het ging om typische zinnen en aanwijzingen die bij een chatbot horen. Ook bleven delen van een instructie aan het systeem zichtbaar. Zo werd snel duidelijk dat het stuk niet volledig zelf was geschreven.
AI-sporen kunnen bestaan uit overgenomen prompts, standaardopbouw of een opvallend neutrale schrijfstijl. Een prompt is een korte instructie die je aan een AI-model geeft. Soms blijven zulke aanwijzingen letterlijk in het document staan. Ook opmaak of hyperlinks kunnen de herkomst verraden.
Het voorval leidde tot discussie in de opleiding en onder docenten. De vraag is niet alleen of dit fraude is, maar ook wat studenten nog zelf moeten kunnen. Veel opleidingen in Nederland zoeken naar een balans. Ze willen ruimte voor hulpmiddelen, zonder dat leerdoelen verdwijnen.
Regels blijven verwarrend
Universiteiten staan AI-gebruik vaak toe, maar alleen met bronvermelding en uitleg. In andere vakken is het volledig verboden. Misbruik valt onder de Onderwijs- en Examenregeling (OER), een set regels over toetsen en gedrag. Dat kan leiden tot een formele procedure.
Opleidingen vragen studenten steeds vaker om transparant te zijn over tools en werkwijze. Noem de gebruikte tool (bijvoorbeeld ChatGPT, Google Gemini of Microsoft Copilot), de datum en de prompts. Leg kort uit hoe het hulpmiddel is ingezet. Zo kan een docent het werk eerlijk beoordelen.
Docenten passen opdrachten aan om oneigenlijk gebruik te beperken. Ze vragen tussentijdse versies, aantekeningen of een korte mondelinge toelichting. Dat maakt het lastiger om een volledig door een model geschreven tekst in te leveren. Het helpt ook om het leerproces beter te zien.
Detectietools schieten tekort
Detectiesoftware zoals Turnitin Originality en GPTZero wordt vaak genoemd als oplossing. In de praktijk zijn deze systemen niet waterdicht. Ze geven soms vals alarm of missen door mensen herschreven tekst. Daarom raden universiteiten aan om meerdere signalen te wegen.
Docenten letten op inhoudelijke gaten, ongebruikelijke stijl en ontbrekende bronnen. Een detector kan een aanwijzing geven, maar nooit het enige bewijs zijn. Het is beter om processtukken mee te laten leveren. Denk aan notities, eerdere versies en bronverwijzingen.
AI-sporen zijn zichtbare of verborgen aanwijzingen dat een tekst door een algoritme is opgesteld, zoals overgebleven prompts, standaardzinnen of opvallend uniforme stijl.
Ook voor studenten is dit relevant. Wie ten onrechte wordt verdacht, moet kunnen laten zien hoe de tekst is ontstaan. Heldere regels en een transparante procedure helpen daarbij. Dat voorkomt willekeur en vergissingen.
Privacy en AVG spelen mee
Toezicht op AI-gebruik raakt direct aan privacywetgeving. De AVG eist dat onderwijsinstellingen dataminimalisatie toepassen en doel en grondslag duidelijk maken. Uploads van studentwerk naar externe diensten moeten goed zijn geregeld. Denk aan een verwerkersovereenkomst en versleuteling.
Publieke chatbots zoals ChatGPT of Gemini mogen niet zomaar studentgegevens ontvangen. Gebruik bij voorkeur instellingsaccounts met extra bescherming, zoals Microsoft Copilot voor Microsoft 365 of Gemini for Workspace, op het moment van schrijven met zakelijke datagaranties. Zet waar mogelijk training op eigen data uit. En deel geen persoonsgegevens in prompts.
Instellingen moeten duidelijk zijn over detectie en opslag van stukken. Studenten hebben recht op informatie, inzage en bezwaar. Leg uit welke tools worden gebruikt, welke data worden bewaard en hoe lang. Bied altijd een bezwaarroute en een menselijk oordeel.
AI-verordening: gevolgen overheid
De Europese AI-verordening (AI Act) brengt extra plichten voor aanbieders en gebruikers van AI-systemen. Toepassingen die beslissen over toegang tot onderwijs vallen naar verwachting in een hoge risicoklasse. Dat vraagt om risicobeheer, documentatie en duidelijke informatie voor gebruikers. De meeste verplichtingen treden gefaseerd in werking, op het moment van schrijven vanaf 2025ā2026.
Voor de overheid en publieke instellingen in Nederland betekent dit strenger toezicht en zorgvuldige inkoop. Universiteiten worden de facto ādeployersā van AI-systemen en moeten aantoonbaar voldoen. Dat geldt zowel voor detectietools als voor schrijf- en feedbackhulp. De AVG blijft daarnaast onverkort gelden.
Het Utrechtse incident laat zien dat beleid en praktijk nog niet altijd samenvallen. Heldere richtlijnen, veilige tooling en onderwijs in digitale vaardigheden zijn nodig. Niet om hulpmiddelen te verbieden, maar om ze verantwoord in te zetten. Zo blijft het werk van studenten toetsbaar Ʃn eerlijk.
