Disneyland test op dit moment gezichtsherkenning en andere AI-systemen in het park. Het gaat om een kleinschalige proef om toegang en doorstroming te verbeteren. De pilot vindt plaats binnen parken van The Walt Disney Company en loopt deze maand. De inzet roept vragen op over privacy, de AVG en de komende Europese AI-verordening.
Proef op beperkte schaal
De test gebruikt gezichtsherkenning om bezoekers sneller te identificeren bij toegang en fotodiensten. Gezichtsherkenning is software die unieke kenmerken van een gezicht omzet in een digitale code en vergelijkt met een referentie. Het systeem werkt als extra optie naast bestaande tickets en passen. Bezoekers kunnen dus kiezen voor de traditionele route.
Disneyland presenteert de proef als vrijwillig en tijdelijk. Op het moment van schrijven zijn geen exacte aantallen deelnemers of locaties gedeeld. Ook is niet bekend welke leverancier of welk model de herkenning uitvoert. Het bedrijf zegt te willen meten of wachttijden dalen en de beleving verbetert.
De aanpak volgt een bredere trend in leisure en evenementen om met algoritmen drukte te sturen. Zulke systemen vallen onder ācomputer visionā, een techniek die beelden automatisch analyseert. De inzet buiten veiligheidsdoeleinden is in Europa toegestaan, maar streng gereguleerd. Daardoor is transparantie over doelen en gegevens cruciaal.
Doel: kortere rijen, minder fraude
Volgens Disneyland moet de proef de instroom bij poorten versnellen. Een automatische check kan sneller zijn dan een handmatige controle. Het systeem kan ook fraude met doorgegeven passen bemoeilijken. Dat moet kosten verminderen en service verbeteren.
Ook binnen het park kan AI helpen drukte te spreiden. Denk aan voorspellingen van piekmomenten of slimme routering in apps. Dat zijn algoritmen die historische data en actuele metingen combineren. Zo kunnen wachttijden en personeelsplanning beter aansluiten op de vraag.
Of die winst er daadwerkelijk is, moet de pilot uitwijzen. AI-systemen presteren niet altijd gelijk voor alle groepen mensen. Licht, cameraĀhoek en diversiteit van de trainingsdata beĆÆnvloeden de nauwkeurigheid. Disneyland zal daarom moeten testen op foutmarges en bias.
Gezichtsherkenning zet een gezicht om in een ātemplateā: een reeks getallen die later met nieuwe beelden wordt vergeleken. Het systeem bewaart idealiter de template, niet de ruwe foto.
Onzekerheid over bewaartermijnen
De kernvraag is welke gegevens Disneyland precies opslaat, en hoe lang. Voor privacyvriendelijke verificatie is het voldoende om een template kort te bewaren of direct te verwijderen. Een centrale database met gezichten of templates vergroot risicoās. Dan zijn sterke versleuteling en strikte toegangscontrole vereist.
Ook het delen met externe leveranciers moet helder zijn. Verwerkersovereenkomsten, dataminimalisatie en logging zijn verplicht onder de AVG. Bezoekers hebben recht op inzage, correctie en verwijdering. Zonder duidelijke informatie is toestemming niet geldig.
Op het moment van schrijven zijn geen technische details publiek, zoals foutpercentages of beveiligingscertificeringen. Zulke cijfers zijn nodig om effect en risicoās te wegen. Publieke audits of een samenvatting van een Data Protection Impact Assessment (DPIA) zouden vertrouwen vergroten. Dat past bij Europese verwachtingen rond transparantie.
AVG vereist vrije keuze
In de EU geldt de AVG voor biometrie zoals gezichtsherkenning. Verwerking van biometrische gegevens voor identificatie mag alleen met een geldige grondslag en strikte noodzaak. In een pretpark is ātoestemmingā het meest passend, maar die moet vrij en zonder druk zijn. Er moet dus een gelijkwaardig, niet-biometrisch alternatief blijven.
Daarnaast moet Disneyland een DPIA uitvoeren voordat de proef start. Zoān risicoanalyse beschrijft doelen, gegevensstromen, beveiliging en impact. Duidelijke borden, begrijpelijke uitleg in de app en een gemakkelijke opt-out zijn nodig. Anders is de verwerking niet transparant en mogelijk onrechtmatig.
De Autoriteit Persoonsgegevens let extra op biometrie in niet-essentiƫle diensten. Eerder kregen organisaties waarschuwingen of boetes bij onnodige gezichtsherkenning. Voor bezoekers uit Nederland en Belgiƫ is dit relevant bij trips naar Disneyland Paris. Hun rechten onder de AVG reizen met hen mee.
AI-verordening stelt extra eisen
De Europese AI-verordening (AI Act) komt gefaseerd in werking vanaf 2025. Biometrische identificatie en verificatie vallen in veel gevallen in de categorie hoog risico. Dat betekent extra plichten, zoals risicobeheer, datasetkwaliteit, menselijk toezicht en registratie. Leveranciers Ʃn uitrolpartners moeten aantoonbaar voldoen.
Als de proef in Disneyland Paris plaatsvindt, geldt dit kader direct binnen de EU. Buiten Europa gelden de regels zodra een dienst zich op EU-bezoekers richt. Bedrijven zullen hun datamodellen en technische documentatie hierop moeten inrichten. Dat beperkt black-box implementaties zonder uitleg.
Let op: realtime biometrische opsporing in publieke ruimte is in de AI Act vrijwel verboden voor politie, met beperkte uitzonderingen. Een pretpark valt daar niet onder, maar moet wel aan de hoge eisen voldoen. Transparantie en robuuste validatie worden daardoor randvoorwaardelijk. Dit verkleint juridische en reputatierisicoās.
Gevolgen voor parkbezoekers
Voor de korte termijn verandert er weinig voor wie geen biometrie wil. Kies bij binnenkomst de reguliere controle en zet eventuele gezichtsopties in de app uit. Vraag bij twijfel om de privacyverklaring en bewaartermijnen. Bezoekers kunnen een inzage- of verwijderverzoek indienen op basis van de AVG.
Voor Disneyland en vergelijkbare attracties betekent dit investeren in privacy by design. Sla zo min mogelijk gegevens op, bewaar ze kort en versleutel standaard. Publiceer meetbare kwaliteitscijfers van de herkenning, uitgesplitst per groep. Dat maakt het debat feitelijk en controleerbaar.
Op langere termijn bepaalt de AI-verordening het speelveld. Een goed ingericht proefproject helpt om straks sneller te voldoen. Zo ontstaan snellere rijen zonder onnodige inbreuk op privacy. Dat is uiteindelijk in het belang van bezoekers en exploitanten.

