OpenAI’s ChatGPT kan jouw leeftijd inschatten op basis van je taalgebruik. Het model kijkt naar woorden, toon en onderwerpen in het gesprek. Deze schatting gebeurt online, in de chatomgeving zelf. Dat is nuttig voor veiligheid en maatwerk, maar roept in Europa vragen op over de AVG en de nieuwe AI‑verordening.
ChatGPT raadt leeftijd uit taal
ChatGPT draait op modellen zoals GPT‑4 en GPT‑4o. Die systemen herkennen patronen in tekst, zoals slang, emoji’s en referenties naar school of werk. Op basis daarvan geven ze vaak een leeftijdsbandbreedte, bijvoorbeeld “begin twintig” of “40‑50 jaar”. Het gaat om een benadering, geen exacte uitkomst.
Het model gebruikt taalanalyse: het koppelt schrijfstijl en woordkeuze aan demografische signalen. Een lange chat levert meer signalen op dan één zin. In het Nederlands kan de schatting anders uitpakken dan in het Engels, door andere uitdrukkingen en cultuur. De uitkomst is daarom contextgevoelig.
OpenAI plaatst veiligheidslagen rond ChatGPT die leeftijd inschatten om jongeren te beschermen. Zulke lagen helpen bij het filteren van inhoud voor minderjarigen. Toch blijft de methode ondoorzichtig voor gebruikers. Er is geen standaard uitleg welke signalen het zwaarst wegen.
Schatting blijft grof en partijdig
De leeftijdsinschatting is statistisch en foutgevoelig. Mensen die bewust “jeugdig” of juist formeel schrijven, kunnen de schatting beïnvloeden. Ook kan een gesprek over een onderwerp dat vaak met een leeftijdsgroep wordt geassocieerd, de uitkomst sturen. Het blijft dus een ruwe gok, geen meting.
Bias blijft een risico. Dialect, opleidingsniveau of migratieachtergrond kunnen de inschatting vertekenen. Dat geldt extra in talen met minder trainingsdata, zoals het Nederlands vergeleken met het Engels. Organisaties moeten die vertekening onderkennen als ze zulke functies inzetten.
Voor gebruikers is transparantie belangrijk: waarom denkt het systeem dat je in een bepaalde leeftijdsgroep valt? Zonder uitleg is het lastig fouten te corrigeren. Daarom vragen toezichthouders vaker om uitlegbare modellen en duidelijke communicatie.
“Profilering is het automatisch verwerken van persoonsgegevens om persoonlijke aspecten te evalueren, zoals interesses, betrouwbaarheid of gedrag.”
AVG stelt strenge grenzen
Leeftijd is een persoonsgegeven onder de AVG. Een organisatie heeft een rechtsgrond nodig om leeftijd uit tekst af te leiden en te gebruiken, zoals toestemming of gerechtvaardigd belang. Dataminimalisatie betekent: alleen schatten als het echt nodig is. En niet langer bewaren dan nodig.
Wie profilering gebruikt, moet daar transparant over zijn en een opt‑out bieden als de grondslag geen toestemming is. Bij hoog risico is een DPIA nodig, een gegevensbeschermingseffectbeoordeling. De Autoriteit Persoonsgegevens let hier in Nederland op. Dit geldt op het moment van schrijven voor zowel bedrijven als overheden.
Voor minderjarigen gelden extra waarborgen. Diensten moeten nagaan of leeftijdsinschatting leidt tot uitsluiting of ongewenste beïnvloeding. Ook moet de beveiliging op orde zijn, bijvoorbeeld door versleuteling en beperkte toegang. Die eisen volgen direct uit de AVG.
AI‑verordening raakt leeftijdsschatting
De Europese AI‑verordening (AI Act) legt plichten op aan zowel aanbieders als gebruikers van AI‑systemen. Een generiek chatsysteem zoals ChatGPT valt onder algemene‑doeleinden AI met transparantie‑eisen. Als leeftijdsschatting wordt gebruikt voor toegang of beoordeling van burgers, kan het naar de categorie “hoog risico” verschuiven.
Biometrische categorisering op gevoelige kenmerken is verboden, maar leeftijd op basis van tekst valt daar niet rechtstreeks onder. Toch gelden extra verplichtingen wanneer de schatting gevolgen heeft, zoals leeftijdscontrole voor diensten. Overheden en publieke instellingen moeten extra zorgvuldig zijn. Dit raakt direct de “Europese AI‑verordening gevolgen overheid”.
Organisaties in de EU moeten documenteren hoe leeftijd wordt ingeschat en gevalideerd. Ze moeten fouten herstellen en bias beperken. Ook hoort daar een duidelijke gebruikersmelding bij. Zonder die stappen dreigt non‑compliance met de AI Act.
Gevolgen voor Nederlandse organisaties
Webwinkels, media en scholen die ChatGPT of vergelijkbare systemen inzetten, moeten hun juridische basis vastleggen. Toestemming is het duidelijkst, maar vraagt een echte keuze. Gerechtvaardigd belang vereist een belangenafweging en een makkelijke opt‑out. Noteer dit in het register van verwerkingen.
Beperk de reikwijdte van de schatting. Laat het systeem geen leeftijd bewaren als dat niet nodig is voor de dienst. Anonimiseer waar mogelijk en toon alleen een globale bandbreedte. Dat verkleint de privacy‑impact en het juridische risico.
Voor overheid en zorg gelden hogere eisen. Denk aan een DPIA en technische en organisatorische maatregelen. Betrek de Functionaris Gegevensbescherming vroeg. Dit sluit aan bij het toezicht van de Autoriteit Persoonsgegevens en de AI‑verordening.
Zo gebruik je dit verantwoord
Voor gebruikers: deel geen onnodige persoonlijke details in chats. Vraag het systeem waarom het jouw leeftijd zo inschat en corrigeer waar nodig. In de instellingen kun je vaak het gebruik van data voor training beperken. Export of verwijder je data als je wilt overstappen.
Voor organisaties: informeer duidelijk over profilering en bewaartermijnen. Test de nauwkeurigheid in het Nederlands, met diverse gebruikersgroepen. Monitor bias en houd een herstelproces beschikbaar. Evalueer periodiek of leeftijdsschatting nog wel nodig is.
- Maak een DPIA bij wezenlijke impact of publieke taken.
- Gebruik dataminimalisatie en versleuteling standaard.
- Bied een opt‑out of vraag expliciete toestemming.
- Documenteer modelversies (bijv. GPT‑4o) en wijzigingen.
Zo blijft de inzet van ChatGPT’s leeftijdsinschatting binnen de Europese regels. En krijgen gebruikers in Nederland de transparantie en controle die de wet vraagt. Dat is goed voor vertrouwen én voor de kwaliteit van de dienst.
