Seneca Polytechnic en Microsoft breiden AI-onderwijs uit

  • Home
  • >
  • Blog
  • >
  • Nieuws
  • >
  • Seneca Polytechnic en Microsoft breiden AI-onderwijs uit

Amsterdam, 22 januari 2026 19:50 

Seneca Polytechnic in Toronto breidt de samenwerking met Microsoft uit om leren met kunstmatige intelligentie te versnellen. De partners investeren in onderwijs, training en toegang tot AI-systemen voor studenten en docenten. Het doel is praktische vaardigheden voor de arbeidsmarkt en verantwoord gebruik in de klas. De stap is ook relevant voor Europa, waar de AVG en de Europese AI-verordening (AI Act) de inzet van AI in het onderwijs sturen.

Praktische AI-vaardigheden

De samenwerking richt zich op praktijkgericht onderwijs met algoritmen en datamodellen. Studenten leren AI gebruiken in projecten, zoals data-analyse, schrijven van code of ondersteuning bij ontwerp. Dit helpt hen sneller aan te sluiten op functies waar digitale vaardigheden worden gevraagd. Werkgevers vragen steeds vaker om basiskennis van AI, ook buiten IT.

Het onderwijsprogramma wordt breder dan ƩƩn studierichting. Ook business, zorg, media en techniek krijgen onderdelen over AI-gebruik. Zo ontstaat een gemeenschappelijke basis: wat kan het systeem, wat kan het niet, en waar liggen risico’s. Studenten trainen op het beoordelen van uitkomsten, niet alleen op het genereren.

De partners leggen nadruk op toetsbare vaardigheden. Denk aan werken met prompts, het controleren van bronnen en het testen van modellen. Studenten leren ook wanneer handmatig werk beter is dan een algoritme. Dat maakt hen weerbaarder tegen fouten en onterechte afhankelijkheid van tools.

Training voor docenten

Docenten krijgen scholing om AI veilig en effectief in lessen te gebruiken. Daarbij hoort uitleg over hoe generatieve AI werkt: het systeem voorspelt woorden of beelden op basis van voorbeelddata. Ze leren lessen ontwerpen waarin AI ondersteunt, maar het leerdoel centraal blijft. Ook krijgen ze handvatten voor toetsing en plagiaatpreventie.

Onderdeel van de aanpak is didactiek: wanneer is AI een rekenmachine, en wanneer een valkuil. Docenten oefenen met casussen, zoals het laten uitleggen van code of het samenvatten van literatuur. Ze bespreken met studenten de grenzen van deze hulp. Zo wordt AI een hulpmiddel, geen vervanging van leren.

Er komt aandacht voor verantwoord gebruik. Dat gaat over transparantie naar studenten, maar ook over bias in trainingsdata. Docenten leren afwijkingen herkennen en bespreken, bijvoorbeeld bij vertalingen of beeldherkenning. Dit bevordert kritisch denken in de klas.

Microsoft zet in op toegang

De samenwerking beoogt brede toegang tot AI-diensten en cloudcapaciteit. Dat maakt experimenten in labs en projectonderwijs mogelijk zonder hoge instapkosten. Studenten en docenten kunnen zo sneller prototypes bouwen en testen. Toegang verlaagt drempels en versnelt leercycli.

Technisch wordt ingezet op veilige omgevingen met duidelijke instellingen. Beheer op schoolniveau bepaalt wie welke data deelt en hoe lang die worden bewaard. Loggen en afschermen zijn belangrijk om fouten te corrigeren. Zo blijft controle bij de instelling, niet bij het model.

Er is ook aandacht voor gelijkheid van toegang. Niet iedere student beschikt over krachtige hardware of betaalde software. Door voorzieningen centraal te regelen, blijft het speelveld eerlijk. Dat voorkomt dat studievoortgang afhangt van persoonlijke middelen.

AI-verordening en AVG in onderwijs

De Europese AI-verordening komt gefaseerd in werking en raakt ook onderwijsinstellingen. Generatieve systemen vallen onder transparantie-eisen, vooral voor aanbieders, en gebruikers moeten duidelijk zijn over AI-gebruik. In onderwijs gelden extra zorgplichten als AI meeweegt in beoordeling of selectie. Dan zijn risico-analyse en menselijk toezicht nodig.

De AVG blijft leidend voor persoonsgegevens. Dataminimalisatie, versleuteling en duidelijke bewaartermijnen zijn verplicht. Instellingen doen een gegevensbeschermingseffectbeoordeling (DPIA) voor nieuwe AI-toepassingen. Ook moeten studenten weten welke data worden verwerkt en met welk doel.

Publieke instellingen letten op inkoop en juridische afspraken. Verwerkersovereenkomsten bepalen wie verantwoordelijk is voor data en beveiliging. Europese opslag en instellingen die modeltraining uitschakelen op gebruikersdata kunnen risico’s verlagen. Dit helpt voldoen aan de AI Act en de AVG.

Generatieve AI maakt nieuwe tekst, beeld of code op basis van voorbeelden; de uitkomst is een statistische voorspelling en kan fouten bevatten.

Betekenis voor Nederland en EU

De Canadese stap sluit aan bij wat veel Europese hogescholen en mbo’s willen: snel toepassen, veilig en verantwoord. Nederlandse instellingen kunnen hieruit drie lessen halen. Begin met docentprofessionalisering, want die bepaalt het tempo en de kwaliteit. Werk daarna aan heldere spelregels voor studenten en toetsen.

Betrek privacy en juridische teams vanaf de start. Dit versnelt DPIA’s en verkleint terugkerende discussies over tools. Gebruik bestaande kaders van bijvoorbeeld SURF voor inkoop en dataveiligheid. Zo worden pilots sneller opschaalbaar.

Tot slot: kies voor projecten met directe waarde voor de regio. Denk aan AI in zorgadministratie, mkb-data-inzichten of energiebeheer in gebouwen. Studenten leren in de praktijk en partners zien meteen impact. Dit versterkt draagvlak voor verdere investeringen in AI-onderwijs.


Over Dave

Hoi, ik ben Dave – schrijver, onderzoeker en nieuwsgierige geest achter AIInsiders.nl. Ik hou me bezig met de manier waarop technologie ons leven verandert, en vooral: hoe we dat een beetje kunnen bijbenen. Van slimme tools tot digitale trends, ik duik graag in de wereld achter de schermen.

Mijn stijl? Lekker helder, soms kritisch, altijd eerlijk. Geen onnodig jargon of overdreven hype, maar praktische inzichten waar je echt iets aan hebt. AI is niet eng of magisch – het is interessant, en ik help je graag om dat te zien.

{"email":"Email address invalid","url":"Website address invalid","required":"Required field missing"}

Misschien ook interessant

>