Onderzoekers van de Universiteit van Cambridge slaan alarm over AI-speelgoed voor kinderen onder vijf jaar. Uit een jaar lang onderzoek blijkt dat Gabbo, een pluche robot van Curio Interactive met een OpenAI-chatbot erin, emoties van peuters stelselmatig verkeerd leest en ongepast reageert.
Terwijl AI-speelgoed voor kinderen al gewoon in de winkel ligt, ontbreekt elke specifieke wetgeving die de psychologische veiligheid van jonge kinderen beschermt.
Hoe Cambridge aantoonde dat AI-speelgoed peuters in de steek laat
De Universiteit van Cambridge videoregistreerde een jaar lang hoe veertien kinderen tussen de drie en vijf jaar omgingen met Gabbo. Dat is een pluche knuffelspeelgoed van Curio Interactive, met daarin een spraakgestuurde AI-chatbot van OpenAI. Het speelgoed kost 99 dollar en is ontworpen om taalvaardigheid en fantasiespel bij jonge kinderen te stimuleren.
De resultaten waren verontrustend concreet. Gabbo hoorde de onderbrekingen van kinderen niet, praatte over hen heen en kon het verschil niet horen tussen een kinder- en een volwassenstem.
De reacties op emotionele uitingen misten elk empathisch vermogen. Toen een vijfjarige zei "I love you" tegen het speelgoed, antwoordde Gabbo met een beleidsherinnering over interactierichtlijnen. Een driejarige die zei "I'm sad" kreeg als reactie dat Gabbo een vrolijke bot is en dat ze gewoon verder konden kletsen.
Dr. Emily Goodacre, medeschrijver van het rapport, waarschuwde in het officiële Cambridge-persbericht dat dit soort AI-speelgoed "emoties kan verkeerd lezen of ongepast kan reageren", waardoor kinderen zowel de troost van het speelgoed als de steun van een volwassene kunnen mislopen.
Waarom Gabbo van Curio en OpenAI meer is dan een technisch mankement
Gabbo is een product van Curio Interactive. Dat bedrijf werkte eerder samen met zangeres Grimes, de voormalige partner van Elon Musk. De chatbot binnenin het speelgoed draait op technologie van OpenAI, een van de grootste AI-bedrijven ter wereld.
Curio liet weten dat hun producten zijn gebouwd rond oudertoegang, transparantie en controle. Toch vond het Cambridge-team wereldwijd slechts zeven relevante studies naar AI-speelgoed voor jonge kinderen.
Geen enkele van die studies richtte zich specifiek op peuters. Dat zegt iets over hoe groot het gat is tussen de beschikbaarheid van dit soort speelgoed en de kennis om er verantwoord mee om te gaan.
Ouders in het onderzoek waren aanvankelijk enthousiast over de leerpotentie van het speelgoed. Maar velen maakten zich zorgen over kinderen die een "parasociale" band ontwikkelen met het speelgoed. De observaties bevestigden dat: kinderen omhelsden Gabbo, zeiden dat ze van het speelgoed hielden en stelden voor om verstoppertje te spelen.
Waarom de EU AI Act al waarschuwt voor AI-speelgoed dat gedrag manipuleert
Kinderen tussen de drie en vijf jaar zitten in een cruciale fase van hun sociaal-emotionele ontwikkeling. Ze leren in deze periode wat vriendschap betekent, hoe gesprekken werken en hoe je reageert als iemand verdrietig is.
Een AI die die signalen stelselmatig verkeerd interpreteert, kan dat leerproces beschadigen. Dat is precies de zorg die Cambridge-professor Jenny Gibson verwoordde in haar interview met de BBC: naast fysieke veiligheid moeten we nu ook nadenken over psychologische veiligheid bij speelgoed.
Het Europees Parlement is hier heel concreet over. In de tekst van de EU AI Act staat als voorbeeld van een verboden praktijk expliciet vermeld: speelgoed dat reageert op een stem en bij kinderen gevaarlijk gedrag uitlokt via cognitieve gedragsmanipulatie. Dat valt onder de categorie onaanvaardbaar risico.
Tegelijk geldt dat AI ingebouwd in producten waarop al Europese productveiligheidswetgeving van toepassing is, zoals speelgoed, automatisch als hoog-risico wordt geclassificeerd. Voor dit type AI-systeem gelden vanaf 2 augustus 2027 de volledige verplichtingen uit de verordening. Dat is nog vier jaar weg. Intussen ligt Gabbo gewoon in de winkel.
AI in kinderproducten: een patroon van te laat ingrijpen
Het Cambridge-onderzoek is niet het eerste signaal dat AI-producten voor kinderen sneller op de markt zijn dan de regulering bijhoudt.
In 2017 haalde de Duitse toezichthouder de slimme pop "My Friend Cayla" van de markt omdat die illegaal gesprekken van kinderen opnam en doorstuurde. Bijna tien jaar later zijn de producten complexer geworden, maar de bescherming nauwelijks sterker.
De Cambridge-onderzoekers roepen nu op tot nieuwe veiligheidskeurmerken voor AI-speelgoed, vergelijkbaar met de keurmerken die al bestaan voor fysieke veiligheid. Josephine McCartney van The Childhood Trust onderschreef die oproep en noemde het essentieel dat regulering gelijke tred houdt met innovatie, zodat ongelijkheden tussen kinderen niet verder toenemen.
Mattel, een van de grootste speelgoedfabrikanten ter wereld, kondigde in 2025 al een samenwerking met OpenAI aan om AI-speelgoed te ontwikkelen. De markt groeit snel. De wetgeving staat stil.
Dit raakt overigens breder dan alleen speelgoed. Zoals wij eerder schreven over AI in het onderwijs en de impact op jonge gebruikers: het vermogen van jongeren om zelfstandig te leren en sociale vaardigheden te ontwikkelen staat op meerdere fronten onder druk.
Wat jij als ouder vandaag nog kunt controleren
Je hoeft AI-speelgoed niet meteen weg te gooien. Maar een paar bewuste keuzes maken direct verschil.
- Zet AI-speelgoed altijd in een gedeelde ruimte zodat jij de gesprekken kunt volgen en kunt ingrijpen als de reacties ongepast zijn.
- Lees het privacybeleid van het product voordat je het aanschaft. Controleer welke gespreksdata worden opgeslagen, hoe lang en of je die kunt verwijderen.
- Leg je kind op een eenvoudige manier uit dat het speelgoed een machine is. Niet een echte vriend, en niet iemand die echt begrijpt wat verdriet is.
- Beperk de tijd dat je kind alleen met het speelgoed speelt, zeker op emotioneel beladen momenten.
De Cambridge-onderzoekers zijn duidelijk: ouderlijk toezicht is nu de beste bescherming die je je kind kunt bieden. Wil je meer weten over hoe de EU toezicht houdt op AI-systemen die met kinderen omgaan? De Autoriteit Persoonsgegevens legt de risicogroepen van de EU AI Act helder uit.
Conclusie
AI-speelgoed voor peuters is er. De wetenschap loopt achter en de regulering ook. Zolang producenten zichzelf mogen beoordelen op psychologische veiligheid, zijn het de kinderen die de prijs betalen. De vraag is niet óf er strengere regels moeten komen, maar waarom een driejarige die "ik ben verdrietig" zegt daar nog jarenlang op moet wachten.
