SignAI: docent maakt AI-app die doven & slechthorenden emoties laat lezen

  • Home
  • >
  • Blog
  • >
  • Nieuws
  • >
  • SignAI: docent maakt AI-app die doven & slechthorenden emoties laat lezen

Amsterdam, 3 januari 2026 13:41 

In Vietnam heeft een leraar een AI‑app ontwikkeld die emoties herkent om doven en slechthorenden te helpen communiceren. De applicatie analyseert gezichtsuitdrukkingen en laat in eenvoudige vorm zien welke emotie waarschijnlijk speelt. Het doel is betere interactie in de klas en in het dagelijks leven. Dit soort systemen raakt aan de Europese AI‑verordening en de AVG, wat in Nederland strenge eisen geeft aan gebruik in onderwijs en zorg.

App helpt doven met emoties

De app gebruikt kunstmatige intelligentie om gezichten in beeld te brengen en een emotielabel te geven, zoals blij, boos of verbaasd. Zo krijgen doven en slechthorenden extra context naast gebaren en mondbeelden. De leraar wil zo misverstanden verkleinen, vooral in drukke of nieuwe situaties. De naam van de applicatie is niet gedeeld op het moment van schrijven.

In het speciaal onderwijs kan zo’n hulpmiddel de interactie tussen docent en leerling ondersteunen. Een kort visueel signaal op een scherm kan aangeven hoe de ander zich mogelijk voelt. Dat kan leerlingen helpen om sociale signalen te herkennen. Het systeem kan ook buiten de klas nuttig zijn, bijvoorbeeld bij balies of in het openbaar vervoer.

Emotieherkenning is in feite patroonherkenning op gezichtskenmerken. Het algoritme leert uit voorbeeldbeelden wat bij een bepaalde emotie hoort. Daarna voorspelt het model bij nieuw beeldmateriaal de meest waarschijnlijke emotie. De uitkomst is een kansinschatting, geen feit.

Wat de techniek kan

Emotieherkenning gebruikt computervisie, een techniek die beelden doorzoekt op herkenbare patronen. Modellen worden getraind op datasets met vele gezichten en bijbehorende labels. Na training kan het systeem in realtime een inschatting tonen. Het werkt met bestaande camera’s op een telefoon, tablet of laptop.

De interface van dit soort apps is vaak simpel: een pictogram, kleur of woord dat naast het videobeeld verschijnt. Dat maakt het toegankelijk in de klas of thuis. De app kan ook drempels verlagen bij gesprekken met onbekenden. Heldere feedback helpt dan om het gesprek rustig te houden.

Toch blijft menselijke beoordeling nodig. Een docent of ouder kan de duiding controleren en zo verkeerde aannames voorkomen. Het is verstandig de app in te zetten als tweede kanaal, naast gebaren en tekst. Zo blijft de gebruiker zelf de regie houden.

Grenzen en misvattingen

Emoties zijn persoonlijk en cultureel gekleurd. Wat in de ene cultuur boos lijkt, is elders neutraal. Modellen leren van beschikbare data, en die zijn niet altijd even divers. Daardoor kan de nauwkeurigheid verschillen per persoon of context.

Voor doven en gebarentaalgebruikers hebben gezichtsuitdrukkingen ook een taalfunctie. Ze geven grammaticale informatie, niet alleen gevoel. Een algoritme kan die rol verwarren met emotie. Dat vergroot de kans op misinterpretatie in de klas.

Wetenschappers discussiëren al jaren over hoe betrouwbaar gezichtsgebaseerde emotieherkenning is. De meting is indirect: het model ziet alleen uitdrukkingen, niet wat iemand echt voelt. Een voorzichtige inzet is daarom verstandig. Duidelijke grenzen en menselijk toezicht horen daarbij.

Europese regels stellen grenzen

De Europese AI‑verordening plaatst emotieherkenning onder strikte regels in gevoelige domeinen. Op het moment van schrijven is emotieherkenning in onderwijs en op de werkvloer in de EU verboden. Dat raakt direct aan toepassingen in de klas. Buiten die context gelden zware zorgplichten voor aanbieders van hoog‑risico‑systemen.

Voor gebruik in Nederland spelen ook de AVG en kinderrechten. Scholen en gemeenten moeten aantonen dat het echt nodig is, en dat er geen lichter alternatief is. Ook moet de inzet uitlegbaar zijn voor leerlingen en ouders. Transparantie en bezwaarrechten zijn verplicht.

De Wet erkenning Nederlandse Gebarentaal onderstreept het belang van toegankelijke communicatie. Technologie mag die positie niet ondermijnen. Een app hoort gebarentaal aan te vullen, niet te vervangen. Co‑design met de dovengemeenschap is daarom cruciaal.

“De Europese AI‑verordening verbiedt emotieherkenning in onderwijs en op de werkvloer.”

Privacy vraagt strakke keuzes

Beeldmateriaal van gezichten kan worden gezien als biometrische gegevens. Die vallen onder de AVG en vereisen een duidelijke grondslag, meestal uitdrukkelijke toestemming. Dat geldt extra sterk bij minderjarigen. Dataminimalisatie en beveiliging zijn verplicht.

Praktisch betekent dit: verwerk zo veel mogelijk op het apparaat zelf en bewaar niets onnodig. Schakel standaard cloudopslag uit en gebruik versleuteling. Log alleen wat echt nodig is voor de functie. Laat gebruikers makkelijk alles wissen.

Ook moeten leveranciers een risicoanalyse en bias‑tests uitvoeren. Documenteren hoe het model is getraind helpt bij toezicht. Leg uit wanneer de voorspelling onzeker is en wat dat betekent. Zo blijft de gebruiker de controle houden over zijn gegevens en keuzes.

Lessen voor Nederland

Nederland kan leren van deze onderwijspraktijk, maar moet binnen EU‑regels blijven. Pilots kunnen buiten de klas plaatsvinden, bijvoorbeeld in zorg of publieke dienstverlening. Daarbij past een sterke focus op privacy en inclusie. Betrek scholen, ouders en de dovengemeenschap vanaf het begin.

Europese projecten zoals SignON en EASIER laten zien hoe taal- en toegankelijkheidstechnologie samen kunnen gaan. Zij richten zich op vertaling tussen gebarentaal en gesproken taal. Een emotiehulpmiddel kan die oplossingen aanvullen, mits goed afgebakend. Samenwerking met Europese consortia kan hergebruik van veilige bouwstenen versnellen.

Overheden en instellingen moeten ook inkopen met zorg. Vraag naar modelkaarten, bias‑metingen en on‑device verwerking. Stel eisen aan uitlegbaarheid in B1‑taal voor ouders en leerlingen. Zo wordt innovatie nuttig én verantwoord toegepast.

Wat nu nodig is

Heldere kaders voor wanneer en waar emotieherkenning wel en niet mag, geven zekerheid. Voor onderwijs in de EU is het verbod duidelijk; andere sectoren vragen om streng toezicht. Een routekaart helpt scholen en zorginstellingen om alternatieven te kiezen. Denk aan tools voor contextuitleg, gebarenondertiteling en veilige chat.

Technisch is meer divers en context‑rijk trainingsmateriaal nodig. Dat vraagt expliciete toestemming en samenwerking met de dovengemeenschap. Met betere data worden voorspellingen eerlijker en stabieler. Publiceer ook foutmarges zodat verwachtingen realistisch blijven.

Tot slot is scholing belangrijk. Docenten, begeleiders en ouders moeten weten wat het systeem wel en niet doet. Zo voorkomen we dat een kansrijke hulp verkeerd wordt ingezet. Verantwoord gebruik begint bij begrip en duidelijke grenzen.


Over Dave

Hoi, ik ben Dave – schrijver, onderzoeker en nieuwsgierige geest achter AIInsiders.nl. Ik hou me bezig met de manier waarop technologie ons leven verandert, en vooral: hoe we dat een beetje kunnen bijbenen. Van slimme tools tot digitale trends, ik duik graag in de wereld achter de schermen.

Mijn stijl? Lekker helder, soms kritisch, altijd eerlijk. Geen onnodig jargon of overdreven hype, maar praktische inzichten waar je echt iets aan hebt. AI is niet eng of magisch – het is interessant, en ik help je graag om dat te zien.

{"email":"Email address invalid","url":"Website address invalid","required":"Required field missing"}

Misschien ook interessant

>