Op Amsterdam-IJburg is de onrust rond overlast door jongeren de afgelopen weken opnieuw opgelaaid. Bewoners melden intimidatie, vernieling en vuurwerk, en vragen om snelle maatregelen. De gemeente Amsterdam en de politie staan voor de keuze welke middelen passend zijn, van extra toezicht tot slimme camera’s en algoritmen. Dit debat raakt direct aan de Europese AI-verordening en de gevolgen voor de overheid in de openbare ruimte.
Onrust zet druk op bestuur
Bewoners van IJburg ervaren al langer overlast, maar recente incidenten zorgen voor meer druk op het stadsbestuur. Buurtgroepen vragen om zichtbare inzet en duidelijke grenzen, ook in avonden en weekenden. Femke Halsema is op het moment van schrijven burgemeester van Amsterdam en ligt onder een vergrootglas over de aanpak. De vraag is niet alleen hoeveel toezicht nodig is, maar ook welk soort toezicht.
In wijken met veel dynamiek is het verleidelijk om snel extra camera’s, drones of data-analyse in te zetten. Zulke middelen kunnen helpen bij het sneller sturen van handhaving en politie. Maar techniek is geen oplossing op zichzelf en kan nieuwe risico’s creëren. Het bestuur moet daarom kiezen wat proportioneel is en wat echt werkt voor veiligheid en vertrouwen.
De politieke discussie gaat daarmee verder dan ordehandhaving. Het raakt de grondrechten van bewoners en jongeren, zoals privacy en gelijke behandeling. Het gaat ook om leren van eerdere programma’s in Nederland die te ver gingen. De les: een middel moet doelmatig zijn, uitlegbaar en juridisch houdbaar.
Data-aanpak onder vergrootglas
Amsterdam gebruikt al jaren cameratoezicht en data om hotspots te volgen. Ook bestaan er landelijke systemen, zoals het Criminaliteit Anticipatie Systeem (CAS) van de Politie, dat voorspelt waar de kans op incidenten groter is. CAS is een voorbeeld van voorspellende politie: een model dat patronen in data gebruikt om capaciteit te plannen. Deze aanpak kan efficiënter werken, maar kent risico’s op tunnelvisie en bias.
De gemeente Amsterdam publiceert algoritmen in het Algoritmeregister. Dat register geeft inzicht in doel, data en risico’s van gebruikte systemen. Voor IJburg betekent dit dat elke nieuwe digitale maatregel traceerbaar en te controleren moet zijn. Zonder transparantie is democratische controle nauwelijks mogelijk.
Gezichtsherkenning en automatische persoonsvolging in de openbare ruimte zijn extra gevoelig. Zulke toepassingen kunnen onbedoeld groepen stigmatiseren of fout-positieven opleveren. De Autoriteit Persoonsgegevens wijst vaker op dataminimalisatie en de plicht om niet meer gegevens te gebruiken dan nodig is. Een wijkaanpak die begint bij brede surveillance kan daarmee juridisch en maatschappelijk vastlopen.
Voorspellende politie is het gebruik van datamodellen om te schatten waar en wanneer problemen kunnen ontstaan, zodat inzet vooraf kan worden gepland.
AI-verordening stuurt keuzes
De Europese AI-verordening (AI Act) plaatst systemen voor handhaving in risicoklassen. Real-time biometrische identificatie in publieke ruimtes is in principe verboden, behalve bij strikte uitzonderingen met zware waarborgen. Voorspellende politie valt in een hoge risicoklasse, met eisen voor risicobeheer, logging, menselijk toezicht en impactanalyses. Voor gemeenten betekent dit meer bewijslast dat een systeem noodzakelijk en veilig is.
Deze regels komen bovenop de AVG, die persoonsgegevens beschermt. Denk aan eisen zoals dataminimalisatie, doelbinding en beveiliging. Wie data van jongeren verwerkt, moet bovendien extra terughoudend zijn. In de praktijk dwingt dit tot kleine, duidelijk afgebakende pilots in plaats van brede uitrol.
Voor de politie en gemeente is dit geen rem, maar een routekaart. Als een systeem helpt, moet dat aantoonbaar zijn met goede data en onafhankelijke evaluaties. Zonder die basis kan handhaving juridisch aangevochten worden en vertrouwen verliezen. De AI Act vraagt dus om zorgvuldigheid vóór snelheid.
Privacy en jeugdbeleid botsen
In een wijk met veel jongeren speelt nog iets anders: proportionaliteit. Het groots verzamelen en koppelen van gegevens over jongeren kan een lang schaduweffect hebben. De uitspraak tegen het risicomodel SyRI laat zien dat te brede datakoppeling niet door de Nederlandse rechter komt. Een wijkoplossing mag geen nieuw SyRI worden, ook niet onbedoeld.
De AVG vereist dat gegevensverwerking noodzakelijk en proportioneel is. Dat betekent: zo weinig mogelijk data, zo kort mogelijk bewaren, en duidelijke doelen. Ook moeten jongeren goed geïnformeerd worden over wat wel en niet wordt gemeten. Dat voorkomt misverstanden en vergroot de kans dat bewoners meewerken.
De Autoriteit Persoonsgegevens kan handhavend optreden als regels worden overtreden. Gemeenten en politie moeten daarom een Data Protection Impact Assessment (DPIA) uitvoeren bij risicovolle verwerking. Dit geldt zeker bij camera-analytics of voorspellende modellen. Zo’n analyse dwingt tot expliciete keuzes en waarborgen.
Wat kan nu wél helpen
Praktische maatregelen met duidelijk doel hebben de meeste kans op succes. Denk aan tijdelijke, zichtbare aanwezigheid van handhaving en jongerenwerk op piekmomenten. Combineer dat met kleinschalige data: incidentmeldingen, tijdstippen, plekken en concrete interventies. Dat is gericht en beter uitlegbaar dan brede monitoring.
Techniek kan ondersteunend zijn als het transparant en tijdelijk is. Mobiele camera’s met een heldere scope en een einddatum zijn beter te verantwoorden. Vermijd biometrische identificatie en individueel profileren in de openbare ruimte. Kies voor privacy by design, zoals on-device anonimisering en strikte retentie.
Gebruik bestaande governance: publiceer systemen in het Amsterdamse Algoritmeregister en laat een onafhankelijke audit uitvoeren. Betrek de jeugdraad en wijkraden bij de evaluatie. Koppel uitkomsten aan meetbare doelen, zoals minder incidenten en meer veiligheidsgevoel. Stop wat niet werkt, schaal op wat aantoonbaar helpt.
Transparantie en meetbare doelen
Een eenvoudige, controleerbare aanpak vergroot vertrouwen. Stel vooraf meetpunten vast: aantal meldingen, herstel van schade, en beleving van veiligheid in bewonerspeilingen. Leg publiek vast welke data wordt gebruikt, door wie en hoe lang. Deel elke drie maanden een voortgangsrapport met de raad en de wijk.
Werk met duidelijke stoplichten voor technologie: groen voor hulpmiddelen met laag risico, oranje voor pilots met extra controle, rood voor verboden biometrie. Dit sluit aan op de AI-verordening en geeft richting aan uitvoerders. Maak daarnaast een exit-plan per maatregel. Zo voorkom je dat tijdelijke middelen stilzwijgend permanent worden.
Tot slot is de kern van de IJburg-discussie breder dan één incident. Het gaat om een stedelijke standaard voor slimme, legitieme en effectieve handhaving. Amsterdam kan hier, met het Algoritmeregister en strikte toepassing van de AVG en AI Act, het goede voorbeeld geven. Dat is beter voor veiligheid én voor rechten van bewoners en jongeren.
