Het Universitair Medisch Centrum Groningen (UMCG) laat studenten geneeskunde oefenen voor toetsen met kunstmatige intelligentie. In studiegroepen gebruiken zij ChatGPT van OpenAI en Microsoft Copilot om casussen en oefenvragen te maken. Docenten begeleiden het gebruik sinds dit studiejaar, op het moment van schrijven in meerdere vakken. De aanpak moet snellere feedback geven en past binnen de AVG en de Europese AI-verordening, met gevolgen voor onderwijs en overheid.
UMCG begeleidt AI-oefenen
Studenten zetten generatieve AI in als oefendocent. Generatieve AI is software die op basis van voorbeelden nieuwe tekst maakt. Met korte opdrachten laat men het systeem klinische casussen, meerkeuzevragen en stapsgewijze uitleg genereren. Dit gebeurt vooral in werkgroepen en voorbereiding op toetsen.
Docenten geven voorbeeldopdrachten en een checklist om de kwaliteit te beoordelen. Studenten vergelijken AI-antwoorden met hun leerdoelen en Nederlandse richtlijnen. Zo trainen zij klinisch redeneren door fouten te vinden en verbeteringen te formuleren. De rol van AI is daarbij hulpmiddel, niet autoriteit.
Er is geen verplichte toolkeuze voor alle studenten. Veelgebruikte opties zijn ChatGPT (GPT-4) en Copilot, omdat ze vlot feedback geven. Medische leerplatforms zoals AMBOSS blijven daarnaast bron voor vragenbanken en naslag. AI-uitvoer wordt altijd getoetst aan het eigen studiemateriaal.
Snelle feedback, wisselende kwaliteit
Het grootste voordeel is tempo. Studenten krijgen direct uitleg en alternatieve redeneringen. Dat maakt herhalen en variëren van stof makkelijker, ook buiten contacturen. Het ontlast docenten bij eenvoudige oefenvragen.
De kwaliteit van antwoorden wisselt wel. Modellen kunnen verouderde of onjuiste medische informatie geven. Ook verzinnen ze soms bronnen, een verschijnsel dat “hallucineren” heet. Daarom blijft controle met boeken en richtlijnen verplicht.
De keuze van het model telt. Betaalvarianten met GPT-4 presteren doorgaans beter dan gratis chatbots. Toch kunnen beide fouten maken, vooral bij zeldzame ziekten of doseringen. Studenten noteren wanneer zij AI hebben gebruikt, zodat de herkomst van tekst en ideeën duidelijk is.
Docenten stellen grenzen
De inzet is formatief: oefenen mag, sjoemelen niet. Tijdens tentamens en beoordelingen is gebruik van AI verboden. Buiten toetsen geldt: AI mag helpen nadenken, maar niet zonder broncontrole tekst opleveren. Zelfstandig kunnen redeneren blijft het doel.
Docenten sturen op transparantie en reproduceerbaarheid. Studenten bewaren hun opdrachten en AI-antwoorden om voortgang te bespreken. Waar AI meeschrijft aan opdrachten, hoort een korte toelichting bij de methode. Dat maakt nakijken eerlijker en leerzamer.
Basisregel in de zorg-ICT: voer nooit herleidbare patiëntgegevens in publieke AI-diensten.
Er zijn ook didactische grenzen. Niet elke vaardigheid leent zich voor chatbots. Gespreksvaardigheden en lichamelijk onderzoek blijven vooral praktijkwerk. Daar gebruikt het UMCG simulatiepatiënten en vaardigheidslabs.
Privacy en AVG leidend
De AVG vraagt om dataminimalisatie en zorgvuldigheid. Studenten voeren daarom geen herleidbare patiëntgegevens in een publieke chatbot in. Oefencasussen worden geanonimiseerd of synthetisch gemaakt. Dit verkleint privacyrisico’s voor echte patiënten.
Zorginstellingen kiezen waar mogelijk afgeschermde omgevingen. Denk aan Copilot binnen de eigen Microsoft 365-tenant, met Europese datalokalisatie en afspraken over modeltraining. Bij webdiensten van derden wordt gecontroleerd of invoer wordt opgeslagen of gebruikt voor trainingsdoeleinden. OpenAI en andere aanbieders bieden zakelijke opties met strengere datagaranties.
Loggen en bewaartermijnen zijn aandachtspunten. Wie AI inzet voor onderwijs moet vastleggen welke data zijn verwerkt en met welk doel. Ook hoort versleuteling standaard te zijn. Het UMCG borgt dit in interne richtlijnen en verwerkersafspraken.
Europese AI-verordening stuurt onderwijs
De Europese AI-verordening (AI Act) treedt gefaseerd in werking, op het moment van schrijven vanaf 2024–2026. Oefenen met generatieve AI valt doorgaans in een lage risicoklasse. De zwaardere regels gelden als AI mee beslist over toelating of beoordeling. Dat is hier niet het geval, omdat het om oefengebruik gaat.
Voor algemene AI-modellen (GPAI) gelden transparantie-eisen. Aanbieders moeten veiligheidsmaatregelen en beperkingen duidelijk maken. Onderwijsinstellingen die zulke systemen inzetten, moeten studenten informeren over werking en risico’s. Ook hoort er een procedure te zijn voor klachten of correcties.
Voor de overheid en publiek gefinancierde instellingen heeft dit praktische gevolgen. Inkoop moet controleren op conformiteit met de AI Act en de AVG. Documentatie over datagebruik en evaluaties wordt onderdeel van kwaliteitszorg. Dat maakt AI-toepassingen beter uitlegbaar en controleerbaar.
Naar een gecontroleerde vragenbank
Een logische volgende stap is een gecontroleerde vragenbank. Daarbij genereert AI ruwe vragen of casussen, die docenten nakijken en vastzetten. Zo groeit het oefenaanbod zonder dat de kwaliteit wegvalt. Studenten krijgen daarmee meer variatie en gerichte feedback.
Een veelgebruikte techniek is retrieval-augmented generation. Het model haalt dan eerst informatie uit eigen syllabi of protocollen en schrijft pas daarna tekst. Dit verkleint de kans op verzinsels en verouderde informatie. De herkomst blijft bovendien inzichtelijk.
Opleidingen verkennen naast grote clouddiensten ook lokale of Europese alternatieven. Open-source modellen kunnen binnen de eigen infrastructuur draaien, met strengere datacontrole. Welke optie het beste past, hangt af van privacy-eisen, kosten en vakinhoud. In alle gevallen geldt: AI ondersteunt het leren, maar vervangt het niet.

