Filosofische kring: ‘AI dwingt ons mensbeeld te herzien’

  • Home
  • >
  • Blog
  • >
  • Nieuws
  • >
  • Filosofische kring: ‘AI dwingt ons mensbeeld te herzien’

Amsterdam, 1 november 2025 21:53 

De Filosofische Kring organiseert deze maand een publieksavond over kunstmatige intelligentie in de regio Veluwezoom. Inwoners bespreken wat AI betekent voor werk, onderwijs en democratie. De bijeenkomst draait om praktische voorbeelden zoals chatbots en deepfakes. Ook komen de Europese AI-verordening en de gevolgen voor overheid en onderwijs aan bod.

Gesprek over nut en risico’s

De avond verkent hoe algoritmen in het dagelijks leven opduiken, van tekstdiensten zoals ChatGPT van OpenAI tot hulpfuncties in Microsoft Copilot. Een algoritme is hier een set regels waarmee een computer beslissingen of voorspellingen maakt. De vraag is niet alleen wat deze systemen kunnen, maar ook wanneer we ze willen inzetten. Die afweging staat centraal in het gesprek.

Voorbeelden maken de impact concreet. Denk aan deepfakes, gemanipuleerde audio of video die met AI is gemaakt, en automatisch gegenereerde schoolopdrachten. Ook komt aan bod hoe Google’s Gemini antwoorden samenstelt en waar het mis kan gaan. Fouten in trainingsdata leiden tot vooroordelen en verkeerde uitkomsten.

De filosofische insteek is bedoeld om voorbij techniekjargon te kijken. Wat betekent verantwoordelijkheid als een model een fout maakt, maar een mens de keuze bevestigt? En hoe weeg je gemak tegen autonomie en vakmanschap? De kring zoekt samen met bezoekers naar duidelijke criteria.

Daarmee sluit de avond aan op actuele vragen in Europa. Burgers willen weten welke data worden gebruikt en wie aansprakelijk is. Organisaties zoeken houvast in nieuwe regels. De bijeenkomst belooft daarom zowel voorbeelden als reflectie.

AI-verordening en AVG in beeld

De Europese AI-verordening (AI Act) deelt systemen in risicoklassen in en legt plichten op aan aanbieders en gebruikers. Hoog-risico-toepassingen, zoals algoritmen voor selectie van studenten of kredietbeoordeling, krijgen strenge eisen voor data, transparantie en menselijk toezicht. De Algemene verordening gegevensbescherming (AVG) blijft daarnaast gelden voor alle persoonsgegevens. Samen bepalen ze wat wel en niet mag.

Voor overheden is de kern: ken je risico’s, documenteer je keuzes en beperk data. Dataminimalisatie betekent dat je niet meer gegevens verzamelt dan nodig is voor een doel. Versleuteling en toegangsbeheer horen daarbij. Wie een chatbot op een gemeentelijke site inzet, moet vooraf toetsen of de dienst persoonsgegevens verwerkt en waarvoor.

Ook voor scholen en zorginstellingen zijn de gevolgen tastbaar. Een AI-hulpmiddel dat leerlingen beoordeelt, kan onder de categorie hoog risico vallen. Dan zijn extra eisen verplicht, zoals uitleg voor gebruikers en controle op foutmarges. Leveranciers moeten technische documentatie bieden; instellingen blijven verantwoordelijk voor zorgvuldig gebruik.

De AI-verordening werkt met vier niveaus: minimaal, beperkt, hoog en onaanvaardbaar risico. Bij onaanvaardbaar risico zijn toepassingen verboden, bij hoog risico gelden strenge eisen, en bij beperkt risico gelden transparantieplichten.

Lokale impact voor gemeenten

Gemeenten experimenteren met AI voor publieksvragen, verkeer en toezicht. Een veelgebruikte toepassing is een vraag-antwoord-assistent op de website. Daarmee stijgt de kans dat persoonsgegevens, zoals adressen of zaaknummers, in een model terechtkomen. De AVG vereist daarom heldere doelen, bewaartermijnen en een goede verwerkersovereenkomst met de leverancier.

De AI-verordening raakt ook inkoop en toezicht. Bij hoog-risico-toepassingen moeten bestuurders controleren of de aanbieder aan de EU-eisen voldoet, inclusief risicobeheer en logging. Real-time biometrische identificatie in publieke ruimte is op het moment van schrijven in principe verboden, met beperkte uitzonderingen voor veiligheid. Dit dwingt tot keuzes over camera’s en analyse-software.

Voor de gemeenteraad betekent dit: stel kaders en vraag om effectrapportages. Een Data Protection Impact Assessment (DPIA) helpt risico’s vooraf in kaart te brengen. Zo wordt zichtbaar welke datasets een systeem gebruikt en hoe menselijk toezicht is ingericht. Publieke verantwoording vergroot het vertrouwen van inwoners.

Het gesprek in de regio kan concrete handvatten opleveren. Welke datasets zijn geschikt en welke niet? Hoe test je op vooringenomenheid in uitkomsten? En hoe geef je inwoners inzage in beslissingen waar een model aan heeft bijgedragen?

Onderwijs en bibliotheken erbij

Scholen en bibliotheken spelen een sleutelrol in uitleg over AI. Leerlingen en cursisten gebruiken systemen zoals ChatGPT en Gemini al dagelijks. Begeleiding begint bij basisregels: bronvermelding, controle van feitelijke claims en bewust omgaan met privacy. Docenten kunnen rubrics aanpassen zodat kritisch denken wordt beoordeeld, niet alleen het eindproduct.

Bibliotheken bieden vaak cursussen digitale vaardigheden. Daar kan een module over AI en data-ethiek bij. Begrippen als trainingsdata, prompt en modelhallucinatie worden kort uitgelegd en geoefend. Zo leren bezoekers sterke en zwakke punten van generatieve systemen herkennen.

Voor onderwijsinstellingen geldt ook de AVG. Gebruik geen diensten die data doorsturen buiten afgesproken regio’s zonder passende waarborgen. Vraag leveranciers om een privacyverklaring en verwerkersovereenkomst. Controleer of de standaardinstellingen dataminimalisatie en opslag in de EU ondersteunen.

Europese initiatieven kunnen ondersteunen. Denk aan richtlijnen van het Europees ComitƩ voor gegevensbescherming en kennisdeling via de Europese onderwijsnetwerken. Zij bieden praktische checklists en voorbeeldbeleid dat scholen kunnen aanpassen.

Vragen die centraal staan

De avond richt zich op drie kernvragen. Waar is AI nuttig, waar schaadt het, en wie beslist daarover? Bezoekers bespreken concrete situaties, zoals sollicitaties, toetsing en dienstverlening aan de balie. Het doel is om heldere keuzes te formuleren die lokaal toepasbaar zijn.

Transparantie staat daarbij voorop. Wanneer moet je melden dat een tekst of beeld met een model is gemaakt? En hoe leg je uit wat een systeem kan en niet kan? Eerlijke communicatie helpt verwachtingen te managen en fouten snel te corrigeren.

Ook aansprakelijkheid komt aan bod. Wie is verantwoordelijk als een algoritme iemand onterecht benadeelt? De AI-verordening wijst plichten toe aan aanbieders en gebruikers, maar organisaties behouden een eigen zorgplicht. Dat vraagt om duidelijke interne processen en training.

Tot slot is er aandacht voor wat nog ontbreekt. Niet alle modellen zijn even transparant over trainingsdata. Publieke instellingen moeten daarom extra letten op herleidbaarheid en auditlogs. Waar die ontbreken, is terughoudendheid verstandig.

Wat bezoekers meenemen

De bijeenkomst geeft inwoners een overzicht van de stand van zaken. Ze leren hoe systemen zoals ChatGPT, Gemini en Copilot werken in grote lijnen. Ze krijgen praktische vragen mee om aan organisaties en leveranciers te stellen. Dat helpt bij keuzes over gebruik thuis, op school en op het werk.

Voor professionals biedt de avond een kompas voor Europese eisen. De combinatie van AI-verordening en AVG vraagt om documentatie, testen en transparantie. Wie dat op orde heeft, vermindert risico’s en vergroot vertrouwen. Deelnemers horen waar ze in projecten op moeten letten.

De Filosofische Kring wil het gesprek toegankelijk maken, zonder technisch te worden. Korte voorbeelden en duidelijke taal staan centraal. Zo ontstaat een gedeelde basis om lokaal beleid en praktijk te verbeteren. En om beter te begrijpen wanneer AI wƩl of niet past.

De kern: begin klein, toets, en leg uit. Gebruik alleen data die nodig zijn en bewaak de herkomst. Regel menselijk toezicht bij belangrijke beslissingen. Met die stappen blijft AI hulpmiddel, geen beslisser.


Over Dave

Hoi, ik ben Dave – schrijver, onderzoeker en nieuwsgierige geest achter AIInsiders.nl. Ik hou me bezig met de manier waarop technologie ons leven verandert, en vooral: hoe we dat een beetje kunnen bijbenen. Van slimme tools tot digitale trends, ik duik graag in de wereld achter de schermen.

Mijn stijl? Lekker helder, soms kritisch, altijd eerlijk. Geen onnodig jargon of overdreven hype, maar praktische inzichten waar je echt iets aan hebt. AI is niet eng of magisch – het is interessant, en ik help je graag om dat te zien.

{"email":"Email address invalid","url":"Website address invalid","required":"Required field missing"}

Misschien ook interessant

>