Peuters en kleuters houden spraakassistenten en chatbots een spiegel voor. In Nederlandse huiskamers en kleuterklassen vallen ChatGPT van OpenAI, Gemini van Google en Alexa van Amazon vaak stil op simpele kindvragen. Dit gebeurt nu, terwijl deze systemen steeds vaker in het gezin en onderwijs opduiken. Het laat zien waarom kindveilig ontwerp en de Europese AI-verordening, met gevolgen voor overheid en onderwijs, urgent zijn.
Peuters prikken in AI-bluf
Jonge kinderen stellen eindeloze waarom-vragen en maken rare sprongen. AI-modellen geven dan vaak nette, maar foute antwoorden. Een peuter die vraagt of je een banaan kunt horen, dwingt het systeem tot gezond verstand. Dat ontbreekt nog te vaak bij ChatGPT, Gemini en Siri.
Kinderen praten ook onduidelijk, met halve zinnen en gebaren. Spraakherkenning mist dan context, en het algoritme gokt. De uitkomst klinkt vloeiend, maar klopt niet. Zo wordt de zwakte van taalmodellen zichtbaar in het dagelijks leven.
De nieuwste generatie modellen, zoals GPT-4o en Gemini met stem en beeld, probeert dit gat te dichten. Ze combineren tekst, spraak en video. Toch blijft begrip van de fysieke wereld lastig. Vooral als de vraag niet in de trainingsdata past.
Taalmodellen missen wereldkennis
Een groot taalmodel voorspelt woorden op basis van patronen. Dat is niet hetzelfde als begrijpen hoe de wereld werkt. IntuĆÆtieve fysica, mensenkennis en humor zijn voor peuters vanzelfsprekend. Voor algoritmen zijn ze nog glibberig terrein.
Tests met alledaagse taken laten dat zien. Denk aan het inschenken van limonade zonder te morsen, of weten dat een beker omvalt. Het model kan dit beschrijven, maar niet betrouwbaar afleiden. Er is geen echt lichaam of zintuigervaring.
Onderzoekers werken aan āembodied AIā, systemen die leren via kijken en handelen. Dat moet datamodellen een soort ervaringskennis geven. Maar dit staat nog aan het begin. In huis en klas blijft daarom begeleiding nodig.
Bedrijven voegen kindmodus toe
Techbedrijven bouwen meer bescherming in voor jonge gebruikers. Amazon biedt āAmazon Kidsā op Alexa met filters en tijdslimieten. Google voegt ouderlijk toezicht toe via Family Link. OpenAI en Apple zeggen strengere moderatie en veiligheidslagen te gebruiken voor stem en beeld.
Die maatregelen gaan vooral over toegang en taalgebruik. Ze voorkomen scheldwoorden of gevoelige onderwerpen. Maar ze lossen het begripprobleem niet op. Een beleefd antwoord kan nog steeds onjuist zijn.
Voor ouders en scholen is dat verschil belangrijk. Een ākindvriendelijkā label zegt weinig over de juistheid van reacties. Lesstof, mediawijsheid en duidelijke afspraken blijven nodig. Vooral bij opdrachten die rekenen op feitelijke kennis.
Europese regels voor kind-AI
De Europese AI-verordening stelt grenzen aan systemen die met kinderen praten. Transparantie is verplicht: het moet duidelijk zijn dat je met een AI praat. Manipulatie die misbruik maakt van de kwetsbaarheid van kinderen is verboden. AI in onderwijs kan als hoog risico gelden, met zwaardere eisen.
AI die met kinderen communiceert moet herkenbaar zijn als AI en mag hun kwetsbaarheid niet uitbuiten. Voor onderwijs- en veiligheidstoepassingen gelden extra plichten.
In Nederland geldt de AVG. Scholen en aanbieders moeten dataminimalisatie toepassen en gegevens versleutelen. Voor het gebruik van persoonsgegevens van minderjarigen is in Nederland onder de 16 jaar toestemming van ouders nodig op het moment van schrijven.
AI in speelgoed kan onder productveiligheidsregels vallen. Als het systeem de veiligheid van het product bepaalt, gelden regels voor hoog risico. De Autoriteit Persoonsgegevens en toezichthouders kunnen handhaven. Dat raakt ook gemeenten en scholen die AI-diensten inkopen.
Gevolgen voor onderwijs en overheid
Scholen die ChatGPT of Gemini inzetten voor begeleiding of toetsing moeten een DPIA uitvoeren. Zo brengen zij risicoās in kaart en kiezen passende maatregelen. Leveranciers moeten duidelijke documentatie en een risicoanalyse leveren. Zonder die basis is gebruik moeilijk te verantwoorden.
Overheden die AI inzetten voor loketten of jeugdzorg hebben extra zorgplicht. Transparantie naar burgers en veilige gegevensverwerking zijn verplicht. De Europese AI-verordening heeft directe gevolgen voor inkoop en beheer. Contracten moeten eisen opnemen over kwaliteit, logging en klachtenafhandeling.
Publieke instellingen doen er goed aan op het moment van schrijven te testen met afgeschermde pilots. Gebruik alleen synthetische of geanonimiseerde data waar mogelijk. Houd een mens in de lus voor besluiten over kinderen. En publiceer begrijpelijke uitleg voor ouders en leerlingen.
Wat ouders en scholen doen
Begin met duidelijke regels over wanneer en waarvoor AI mag worden gebruikt. Laat kinderen korte, concrete vragen stellen. Check altijd de antwoorden op feitelijke juistheid. En leg uit dat een vloeiende stem niet hetzelfde is als gelijk hebben.
Zet ouderlijk toezicht en profielen per kind aan. Beperk het delen van namen, locaties en beelden. Kies waar mogelijk voor on-device functies die geen data naar de cloud sturen. En lees de privacyinstellingen van ChatGPT, Gemini, Siri en Alexa goed door.
Gebruik AI vooral als hulpmiddel, niet als opvoeder of leraar. Combineer met boeken, spel en menselijk contact. Zo leren kinderen beter vragen stellen Ʃn antwoorden te wegen. En leren de systemen, indirect, een lesje terug.
