EY deelt de kerninzichten uit EY AI Week 2025 in Nederland. Het evenement bracht bedrijven, overheden en startāups samen in 2025. Doel: veilige inzet van kunstmatige intelligentie Ć©n voldoen aan de Europese AI-verordening gevolgen overheid. De rode draad: waarde is haalbaar, maar governance en datakwaliteit bepalen het tempo.
Bedrijven zoeken meetbare waarde
Veel Nederlandse organisaties verplaatsen generatieve AI van proef naar productie. Populaire toepassingen zijn copilots voor medewerkers, klantenservice-assistenten en documentĀsamenvatting. Zulke systemen zijn algoritmen die tekst of code genereren op basis van voorbeelddata.
Bedrijven vragen om harde cijfers: tijdswinst, foutreductie en klanttevredenheid. De les is klein beginnen met een duidelijk proces en een menselijke controle stap. Dit verkleint risicoās en versnelt acceptatie op de werkvloer.
Er is meer aandacht voor āsmall models firstā en hergebruik van eigen data via zoekkoppelingen. Een groot taalmodel (LLM) is niet altijd nodig of betaalbaar. Organisaties combineren kleinere modellen met interne bronnen om privacy te borgen en kosten te drukken.
AI-governance wordt randvoorwaarde
Bestuurders zetten AIāgovernance hoger op de agenda. Een modelregister helpt om alle systemen, datastromen en risicoās bij te houden. Zoān register is een eenvoudige lijst met doelen, datasets, prestaties en verantwoordelijken per model.
Onder de AVG hoort een DPIA bij gevoelige toepassingen. Ook horen dataminimalisatie, goede logging en toegangsbeheer bij de basis. Red teaming, een test waarbij men een systeem bewust probeert te laten falen, wordt standaard voor generatieve modellen.
Derdeāpartijtools vragen extra aandacht. Contracten moeten duidelijk zijn over datagebruik, bewaartermijnen en beveiliging. Werkgevers beperken āshadow AIā met beleid, interne alternatieven en training.
Datakwaliteit en veiligheid schieten tekort
Rommelige brondata blijven een grote rem. Onvolledige en scheve datasets vergroten het risico op vooringenomen uitkomsten. Hallucinatie, waarbij een model informatie verzint, blijft een bekende valkuil.
Technische maatregelen winnen terrein. Retrieval augmented generation (RAG) koppelt een model aan gecontroleerde bedrijfsbronnen om actuele en traceerbare antwoorden te geven. Guardrails, extra regels die ongewenste uitkomsten blokkeren, verkleinen risicoās zoals promptāinjectie en datalekken.
Beveiliging verschuift naar het hele AIālandschap: van prompts en plugāins tot APIās en opslag. Geheimen en bedrijfsgeheimen horen niet in publieke prompts. Organisaties zetten monitors op voor datalekken, bias en IPārisicoās, en evalueren modellen met vaste testsets.
Europese AI-verordening gevolgen overheid
De AIāverordening (AI Act) geldt in de hele EU en raakt ook Nederlandse organisaties. Op het moment van schrijven zijn de verboden praktijken al snel na inwerkingtreding van kracht. De regels voor generieke modellen en foundation models volgen eerder dan de verplichtingen voor hoogārisico systemen.
De verordening werkt met risicoklassen en duidelijke plichten voor hoog risico. Denk aan risicobeheer, datagovernance, documentatie, menselijke controle en conformiteitsbeoordeling. Leveranciers van generieke modellen moeten technische documentatie en trainingsinformatie beschikbaar maken.
De AIāverordening deelt systemen in: onaanvaardbaar (verboden), hoog risico (strenge eisen), beperkt risico (transparantie) en minimaal risico (weinig eisen).
Voor overheden tellen extra stappen. Een fundamenteleārechtenāimpactanalyse is verplicht bij inzet van hoogārisico AI in publieke diensten. Nederland heeft een landelijk Algoritmeregister en werkt, op het moment van schrijven, aan de exacte aanwijzing van toezichthouders.
Planning is cruciaal: verbodsbepalingen gelden eerder, GPAIāverplichtingen volgen, en hoogārisico eisen krijgen de langste aanloop. Koppeling met de AVG en bestaande DPIAās voorkomt dubbel werk. Inkoopvoorwaarden en leveranciersaudits worden belangrijker bij elke nieuwe AIāimplementatie.
Vaardigheden en werk veranderen
Teams hebben nieuwe vaardigheden nodig. Denk aan datavaardigheid, modelbegrip en basisveiligheid. Prompt engineering, het slim formuleren van instructies voor een model, wordt een standaardvaardigheid in kantoorfuncties.
Nederlandse ondernemingsraden vragen om vroege betrokkenheid bij AIāinzet. Monitoring van medewerkers met algoritmen raakt de AVG, proportionaliteit en transparantie. Heldere spelregels en training beperken weerstand en fouten.
De krapte aan AIātalent houdt aan. Organisaties bouwen interne communities en leiden medewerkers om. Partnerschappen met hogescholen en universiteiten versnellen instroom en onderzoek.
Kosten, cloud en duurzaamheid
Rekenkosten blijven een harde grens bij generatieve AI. FinOps voor AI, met gebruikslimieten en kostenmeters, wordt standaard. Slimmere prompts en efficiƫntere inferentie verlagen de rekening.
Dataverblijf en soevereiniteit spelen mee bij cloudkeuzes. EUādatagrenzen en versleuteling zijn belangrijk voor zorg, overheid en financiĆ«le instellingen. Confidential computing, versleuteling tijdens verwerking, wint terrein voor gevoelige workloads.
Duurzaamheid komt hoger op de agenda door de CSRDārapportage. Energieverbruik en COāāuitstoot van datamodellen worden meetpunten. Kleinere modellen, gedeelde infrastructuur en betere hardwarekeuze drukken de impact.
