Filosofische Kring bespreekt AI: hoe verandert technologie ons mensbeeld?

  • Home
  • >
  • Blog
  • >
  • Nieuws
  • >
  • Filosofische Kring bespreekt AI: hoe verandert technologie ons mensbeeld?

Amsterdam, 29 november 2025 21:52 

De Filosofische Kring organiseert een publieksavond over kunstmatige intelligentie. De bijeenkomst wil inwoners helpen begrijpen hoe algoritmen werken en welke keuzes daarbij horen. Het gesprek vindt plaats in Gelderland, met ruimte voor vragen en discussie. Het onderwerp is actueel omdat de Europese AI-verordening gevolgen krijgt voor burgers, bedrijven en overheid.

Lokale dialoog over algoritmen

De Filosofische Kring kiest voor een laagdrempelige avond met korte inleidingen en veel gesprek. Thema’s zijn generatieve systemen zoals ChatGPT van OpenAI en Copilot van Microsoft, en wat deze modellen in het dagelijks leven doen. Generatieve AI is software die patronen uit data gebruikt om tekst, beeld of code te maken. De avond richt zich op begrip, niet op techniek alleen.

Door concrete voorbeelden blijft het onderwerp dichtbij. Denk aan automatische samenvattingen van teksten, het schrijven van e-mails of feedback op huiswerk. De groep bespreekt ook waar AI nog tekortschiet, zoals het verzinnen van onjuiste feiten (zogenoemde hallucinaties). Zo wordt duidelijk wanneer AI helpt en wanneer menselijk oordeel nodig blijft.

De organisatie wil een open gesprek waarin deelnemers ervaringen delen. Publieksvragen gaan vaak over betrouwbaarheid en verantwoordelijkheid. Ook komt aan bod wie eigenaar is van ingevoerde data en uitkomsten. Dit helpt bezoekers betere keuzes te maken bij het gebruik van AI-tools.

Vragen over privacy en zeggenschap

Een vast onderdeel is privacy. Wie AI gebruikt, deelt vaak tekst of beelden met een externe partij. De Algemene verordening gegevensbescherming (AVG) eist dataminimalisatie: verzamel niet meer dan nodig en bescherm gegevens met versleuteling. De avond legt uit wat dit betekent in apps en online diensten.

Ook wordt besproken hoe bedrijven en scholen toestemming en transparantie regelen. Gebruikers moeten weten wat er met hun data gebeurt en hoe ze die kunnen verwijderen. Voor organisaties geldt een verwerkingsregister en soms een Data Protection Impact Assessment. Dat zijn praktische stappen om risico’s te verkleinen.

Voor makers en ontwikkelaars komt eigenaarschap ter sprake. Trainingsdata voor modellen zoals Gemini van Google of open modellen als Llama (Meta) roepen vragen op over auteursrecht. De bijeenkomst schetst de stand van zaken in Europa en laat zien waar procedures lopen.

AI-verordening raakt iedereen

De Europese AI-verordening (AI Act) deelt systemen in risicoklassen in: minimaal, beperkt, hoog en verboden. Hoogrisico-systemen, zoals algoritmen voor inzicht in schoolprestaties of toewijzing van publieke diensten, krijgen strenge eisen. Denk aan transparantie, logging, mensenrechtentoetsen en menselijk toezicht. Dit raakt ook Nederlandse gemeenten en scholen.

Op het moment van schrijven gelden de verboden praktijken al, zoals ongerichte gezichtsherkenning in de openbare ruimte. Regels voor zogeheten generatieve of ā€œgeneral purposeā€-modellen gaan gefaseerd in tot 2025. Voor hoogrisico-toepassingen volgen de verplichtingen vooral in 2026 en 2027. De avond verduidelijkt wat dit in de praktijk betekent.

De AI-verordening verplicht organisaties duidelijk te maken wanneer iemand met een AI-systeem communiceert en waar menselijk toezicht plaatsvindt.

Voor burgers is het nuttig te weten hoe zij hun rechten kunnen uitoefenen. Dat gaat om informatie, bezwaar en toegang tot uitleg. Voor instellingen draait het om governance: wie is verantwoordelijk, welke datasets worden gebruikt, en hoe wordt getest. Dit sluit aan op bestaande AVG-processen.

Voorbeelden uit zorg en onderwijs

De bijeenkomst laat sectorvoorbeelden zien om de impact tastbaar te maken. In de zorg kan een taalmodel samenvattingen van dossiers maken, maar een arts moet altijd controleren. In het onderwijs kunnen AI-assistenten huiswerk uitleggen, mits docenten richtlijnen maken voor eerlijk gebruik. Zo ontstaat balans tussen innovatie en kwaliteit.

Publieke instellingen hebben extra plichten. Als een gemeente een beslissysteem inzet, kan dit al snel in de hoogrisicoklasse vallen. Dan zijn documentatie, risicoanalyse en uitleg aan burgers verplicht. De Filosofische Kring bespreekt hoe dit in Nederland georganiseerd kan worden.

De avond kijkt ook naar toegankelijkheid. Niet iedereen kan of wil met AI werken. Heldere taal, opt-outs en ondersteuning blijven nodig. Dat voorkomt digitale uitsluiting bij overheidsdiensten en scholen.

Grenzen van huidige systemen

De organisatoren benadrukken dat AI niet alwetend is. Modellen voorspellen het meest waarschijnlijke antwoord op basis van patronen in data. Daardoor kunnen ze overtuigend klinken en toch fout zijn. Kritisch lezen en bronverificatie blijven nodig.

Transparantie over datasets is vaak beperkt, zeker bij gesloten modellen. Open modellen verbeteren dit soms, maar vragen extra zorg bij beveiliging en beheer. De groep bespreekt eenvoudige checks: bronvermelding vragen, uitkomsten vergelijken en gevoelige data weglaten. Dit helpt risico’s snel te verkleinen.

Tot slot komt energieverbruik aan bod. Grote modellen vragen veel rekenkracht. Efficiƫntere, kleinere modellen en slim hergebruik van rekenwerk zijn mogelijke oplossingen. Dat is relevant voor Europese duurzaamheidsdoelen en kosten in het onderwijs en bij de overheid.

Praktische handvatten voor bezoekers

De Filosofische Kring reikt eenvoudige stappen aan voor veilig gebruik. Gebruik privacyvriendelijke instellingen, deel geen persoonsgegevens en zet chatgeschiedenis uit waar mogelijk. Vraag altijd om onderbouwing van feiten. En test uitkomsten met kleine proeven voordat u ze toepast.

Organisaties krijgen tips voor beleid. Maak een intern register van AI-toepassingen, wijs een verantwoordelijke aan en stel toetsvragen op. Denk aan doel, dataset, risico’s, en menselijk toezicht. Dit past bij de Nederlandse en Europese eisen en maakt audits eenvoudiger.

Wie meer wil, kan lokale initiatieven en bibliotheken benaderen voor cursussen digitale vaardigheden. Daar liggen handleidingen en voorbeeldrichtlijnen. Zo krijgt de publieke discussie over algoritmen een plek nabij huis, met zicht op de regels die eraan komen.


Over Dave

Hoi, ik ben Dave – schrijver, onderzoeker en nieuwsgierige geest achter AIInsiders.nl. Ik hou me bezig met de manier waarop technologie ons leven verandert, en vooral: hoe we dat een beetje kunnen bijbenen. Van slimme tools tot digitale trends, ik duik graag in de wereld achter de schermen.

Mijn stijl? Lekker helder, soms kritisch, altijd eerlijk. Geen onnodig jargon of overdreven hype, maar praktische inzichten waar je echt iets aan hebt. AI is niet eng of magisch – het is interessant, en ik help je graag om dat te zien.

{"email":"Email address invalid","url":"Website address invalid","required":"Required field missing"}

Misschien ook interessant

>