PwC-enquête: CEO’s maken AI topprioriteit – Microsoft en OpenAI favoriet

  • Home
  • >
  • Blog
  • >
  • Nieuws
  • >
  • PwC-enquête: CEO’s maken AI topprioriteit – Microsoft en OpenAI favoriet

Amsterdam, 23 januari 2026 11:38 

Pwc presenteert zijn Global CEO Survey 2026. Topbestuurders zetten kunstmatige intelligentie hoger op de agenda om groei en productiviteit te versnellen. Bedrijven in Nederland en Europa willen sneller opschalen, maar botsen op regelgeving, dataschaarste en een gebrek aan vaardigheden. De Europese AI-verordening en de AVG bepalen op het moment van schrijven de gevolgen voor overheid en bedrijven, vooral bij inzet van high-risk systemen.

AI bovenaan agenda

CEO’s verplaatsen generatieve AI van pilot naar dagelijkse praktijk. Het doel is minder kosten, snellere processen en nieuwe omzet. Bestuurders vragen nu meetbare resultaten in plaats van losse experimenten. Dat maakt governance, audit en duidelijke KPI’s urgent.

Gebruikstoepassingen worden concreet. Denk aan klantenservice met chatbots, documentanalyse in juridische en fiscale teams en code-assistenten voor IT. Organisaties noemen daarbij tools als Microsoft Copilot, OpenAI’s GPT-4 en Google Gemini. In de fabriek en logistiek groeit interesse in voorspellend onderhoud en vraagplanning met algoritmen.

In Nederland zetten financiële instellingen en de overheid bedachtzaam stappen. Zij balanceren efficiency met strenge eisen rond privacy en uitlegbaarheid. Zorginstellingen kijken naar triage en administratieve verlichting, maar vermijden directe medische besluitvorming door AI. Bedrijven in handel en industrie testen vooral AI voor prijsstelling en voorraadbeheer.

Generatieve AI is software die nieuwe tekst, beeld, audio of code maakt op basis van eerder geleerde voorbeelden.

AI-verordening bepaalt vervolgstappen

De Europese AI-verordening (AI Act) zet de kaders voor opschaling. Systemen worden ingedeeld in risicoklassen met bijbehorende plichten, zoals data­governance, logboeken, transparantie en menselijk toezicht. Verboden toepassingen gelden eerder, terwijl voor hoogrisico-systemen de zwaarste eisen later ingaan. Op het moment van schrijven bereiden bedrijven en overheden conformiteitsbeoordelingen en CE-markering voor.

Voor overheid, zorg, mobiliteit en financiële diensten zijn veel toepassingen hoogrisico. Denk aan kredietbeoordeling, selectie in onderwijs of geautomatiseerde overheidsbesluiten. Daar horen impactanalyses, robuust testen en duidelijke escalatie naar een medewerker bij. Leveranciers moeten ook technische documentatie bijhouden en wijzigingen doorvoeren via gecontroleerde updates.

De AVG blijft leidend voor alle systemen die persoonsgegevens verwerken. Dat vraagt dataminimalisatie, een rechtmatige grondslag en beveiliging zoals versleuteling. Voor de overheid zijn de “Europese AI-verordening gevolgen overheid” concreet: zonder DPIA en duidelijke doelen zullen inkoop en implementatie vastlopen. De Autoriteit Persoonsgegevens ziet toe op privacy, naast sectorale toezichthouders.

Bestuurders leggen budgetten vast voor compliance by design. Juridische teams werken samen met IT en risk om standaarden te kiezen. Contracten met leveranciers krijgen clausules over trainingsdata, updates en incidentmelding. Dat verkleint vertraging bij audits en aanbestedingen.

Datakwaliteit blijft struikelblok

Veel organisaties hebben versnipperde data met onvolledige labels en beperkte toegang. Generatieve modellen presteren zwak zonder betrouwbare, actuele informatie. Dat leidt tot “hallucinaties”: overtuigende maar onjuiste antwoorden. CEO’s koppelen investeringen in AI daarom aan opschoning van gegevens en duidelijke eigenaarschap.

Technisch kiezen teams vaker voor retrieval augmented generation. Dat is een opzet waarbij een model antwoorden onderbouwt met documenten uit een bedrijfszoekmachine. Het vermindert fouten en maakt bronnen zichtbaar voor controle. Dit werkt alleen als documenten gestructureerd, vindbaar en beveiligd zijn.

Gevoelige data en intellectueel eigendom vragen streng toegangsbeheer. Organisaties beperken trainingsdata, gebruiken versleuteling en scheiden test- en productiedata. Sommige kiezen voor modellen op eigen infrastructuur, om data het land of de EU niet te laten verlaten. Anderen gebruiken cloud met een EU-gegevensgrens en contractuele garanties.

De les is simpel: zonder solide datagovernance levert AI weinig waarde. Bedrijven starten met een catalogus van datasets en heldere metadata. Ze meten datakwaliteit en maken fouten zichtbaar voor teams. Pas dan schalen zij modellen gecontroleerd op.

Vaardigheden en cultuur achterlopen

Er is een tekort aan praktische AI-vaardigheden op de werkvloer. Medewerkers moeten leren hoe ze goede opdrachten aan systemen geven en uitkomsten controleren. Managers richten processen zo in dat mens en algoritme elkaar aanvullen. Zonder die combinatie blijft productiviteitswinst uit.

Bedrijven bouwen interne academies en “AI-gilden” om kennis te delen. Ze benoemen product owners die beleid, techniek en operatie verbinden. Ook de ondernemingsraad wil vroeg meedenken over functies en scholing. Dat vergroot draagvlak en beperkt weerstand bij veranderingen.

Transparant beleid helpt. Organisaties stellen een AI-gebruiksbeleid op met voorbeelden, verboden en procedures bij fouten. Heldere richtlijnen verminderen “shadow AI”, waarbij medewerkers ongekeurde tools inzetten. Training en kleine, veilige pilots versnellen verantwoord gebruik.

Samenwerking met hogescholen en universiteiten vult de talentpijplijn. Stages en duale trajecten brengen actuele kennis de fabriek of het kantoor in. Publieke programma’s voor Leven Lang Ontwikkelen sluiten daarop aan. Zo daalt de drempel voor mkb en publieke sector.

Risico’s en toezicht nemen toe

Bestuurders zien juridische, operationele en reputatierisico’s. Modellen kunnen bevooroordeeld zijn of verkeerde adviezen geven. Daarom komen beoordelingskaders, red-teaming en monitoring in de lifecycle. Elk belangrijk model krijgt een eigenaar, een risico-classificatie en exitplannen.

Beveiliging krijgt meer gewicht door prompt-injecties en datalekken. Leveranciers moeten software­ketens aantoonbaar beveiligen en updates tijdig leveren. Normen zoals NEN-ISO/IEC 42001 voor AI-managementsystemen geven houvast op het moment van schrijven. Contracten leggen incidentrespons en aansprakelijkheid vast.

Het toezicht in Nederland wordt breder. Naast de Autoriteit Persoonsgegevens houden ook sector­toezichthouders en de ACM het gebruik van algoritmen in de gaten. De AI-verordening vraagt dat lidstaten bevoegde autoriteiten aanwijzen. Dat maakt regels beter handhaafbaar bij publieke diensten en kritieke sectoren.

Publieke inkoop zal scherper worden. Aanbestedingen eisen transparantie, technische dossiers en conformiteit met de AI Act. Leveranciers van modellen zoals GPT-4 of Gemini moeten documentatie en evaluaties meeleveren. Dat verandert de marktpositie van grote techbedrijven en Europese aanbieders.


Over Dave

Hoi, ik ben Dave – schrijver, onderzoeker en nieuwsgierige geest achter AIInsiders.nl. Ik hou me bezig met de manier waarop technologie ons leven verandert, en vooral: hoe we dat een beetje kunnen bijbenen. Van slimme tools tot digitale trends, ik duik graag in de wereld achter de schermen.

Mijn stijl? Lekker helder, soms kritisch, altijd eerlijk. Geen onnodig jargon of overdreven hype, maar praktische inzichten waar je echt iets aan hebt. AI is niet eng of magisch – het is interessant, en ik help je graag om dat te zien.

{"email":"Email address invalid","url":"Website address invalid","required":"Required field missing"}

Misschien ook interessant

>