Grote chatbots van OpenAI, Google en Microsoft praten steeds menselijker en klinken soms emotioneel. Dat roept vragen op bij gebruikers in Nederland en de rest van Europa: kan een algoritme echt bedroefd zijn, en wat mag ermee? Het debat speelt nu, terwijl de Europese AI-verordening (AI Act) en de AVG strenger worden toegepast, met gevolgen voor overheid en bedrijven. Het gaat om de grens tussen empathische taal en echte gevoelens, en om de risico’s van emotieherkenning.
Chatbots voelen niet
Chatbots zoals ChatGPT, Gemini en Copilot genereren tekst op basis van patronen in data. Ze hebben geen bewustzijn of gevoelens. Als ze “ik ben verdrietig” schrijven, is dat een taalkeuze die past bij het gesprek. Het systeem kiest woorden die statistisch passen, niet omdat het iets ervaart.
De modellen zijn getraind op grote hoeveelheden tekst van internet. Daarna leren ze via menselijk oordeel wat beleefd en behulpzaam klinkt. Dat heet reinforcement learning from human feedback, een leerstap waarin mensen goede antwoorden belonen. Zo ontstaat empathische stijl, maar geen echte emotie.
Gebruikers kunnen die stijl snel verwarren met gevoel. Vooral in langere gesprekken of met stem. Een warme toon bouwt vertrouwen, maar kan ook misleiden. Dat vergroot het risico op overmatige afhankelijkheid.
Empathie wekt verwarring
Veel assistenten gebruiken troostende zinnen en emojis. Die helpen bij klantcontact en zorgvragen. Toch blijft het een interfacekeuze. Achter de schermen blijft het een statistisch model dat volgende woorden voorspelt.
Bij multimodale systemen komt daar beeld en stem bij. Een vriendelijke stemklank kan de illusie van een persoon wekken. Dat is handig voor toegankelijkheid. Maar het maakt ook moeilijker om het onderscheid te zien tussen mens en machine.
Voor organisaties speelt hier een zorgplicht. Een gemeente of zorgverlener die een chatbot inzet, moet voorkomen dat burgers denken met een mens te praten. Duidelijke labels en eenvoudige uitleg zijn nodig. Dat sluit aan bij Europese transparantie-eisen.
EU remt emotieherkenning
De Europese AI-verordening, die op het moment van schrijven gefaseerd ingaat, stelt grenzen aan emotieherkenning. Het gebruik op werk en in onderwijs wordt verboden. In rechtshandhaving geldt een zware toets. Conversatiebots vallen onder transparantieregels: het moet duidelijk zijn dat je met AI praat.
“Emotieherkenning is het automatisch afleiden van gevoelens uit gelaat, stem of lichaamssignalen.”
De eerste verboden gaan zes maanden na inwerkingtreding gelden. Regels voor generatieve systemen volgen ongeveer een jaar later. Hoge-risicotoepassingen krijgen langere invoertermijnen. Organisaties doen er goed aan nu al te toetsen of hun plannen onder deze klassen vallen.
Voor Nederland betekent dit scherpere inkoop en toetsing bij de overheid. Gemeenten, scholen en ziekenhuizen moeten nagaan of functies stilzwijgend emotiedata verzamelen. Denk aan camera’s die “stress” meten of klantenservices die “boosheid” scoren. Zulke functies kunnen niet meer zonder duidelijke wettelijke grondslag of zijn straks verboden.
AVG beperkt gevoelsdata
De AVG beschermt persoonsgegevens, ook als een model die afleidt. Een “emotiescore” kan tot een persoon te herleiden zijn. Dan gelden eisen als dataminimalisatie, doelbinding en beveiliging. Biometrische gegevens zijn extra gevoelig en meestal verboden zonder strikte voorwaarden.
Opslaan van ruwe audio of video om emoties te schatten brengt bijzondere risico’s. Versleuteling en snelle verwijdering zijn dan noodzakelijk, maar vaak niet genoeg. Bovendien zijn emoties momentopnames en notoir onbetrouwbaar om te meten. Foute conclusies kunnen mensen benadelen.
De Autoriteit Persoonsgegevens houdt hierop toezicht in Nederland. Wie experimenteert met emotielabels in klantenservice of HR, loopt juridisch risico. Een DPIA, een gegevensbeschermingseffectbeoordeling, is dan meestal verplicht. Zonder duidelijke noodzaak is stoppen vaak de veiligste optie.
Praktisch: zo gebruik je het
Voor gebruikers geldt een eenvoudige vuistregel: behandel de chatbot als een slimme tekstgenerator. Neem empathische taal aan als service, niet als gevoel. Vraag om bronnen en leg kritische beslissingen niet bij het systeem. Bij twijfel: bespreek het met een mens.
Voor makers is heldere communicatie cruciaal. Zet zichtbaar dat het om AI gaat, ook in spraakinterfaces. Vermijd zinnen als “ik voel…” in systeemberichten. Bied opties om de toon aan te passen, van neutraal tot vriendelijk, met uitleg wat dat betekent.
Technisch kan je risico’s beperken door geen emotieherkenning te activeren. Verzamel geen onnodige audio- of videodata. Log geen gevoelslabels per gebruiker. Documenteer modelversies en beperkingen, zoals de AI Act vraagt voor algemene modellen.
Nederlandse inzet verandert
Overheden en publieke diensten gebruiken vaker chatbots voor veelgestelde vragen. Dat kan wachtrijen verkorten en taalbarrières verlagen. Maar bij kwetsbare groepen, zoals jongeren of zorgvragers, hoort extra zorg. Een te menselijke toon kan verwachtingen scheppen die het systeem niet waarmaakt.
In het onderwijs is begeleiding nodig. Een vriendelijke tutorbot kan motiveren, maar mag geen emoties meten of voorspellen. Scholen moeten transparant zijn naar ouders en leerlingen. En docenten moeten de regie houden over feedback en beoordeling.
Voor bedrijven in klantenservice geldt hetzelfde evenwicht. Empathische scripts verhogen tevredenheid, maar mogen niet suggereren dat er geluisterd wordt zoals een mens dat doet. Meet succes op duidelijkheden als wachttijd en oplossingsgraad, niet op betwiste emotiescores. Zo sluit de praktijk aan bij de Europese AI-verordening en de AVG.
