Private-equityhuizen in Nederland en Europa zien dat de meeste portfoliobedrijven nog in een vroege fase van AI-adoptie zitten. Het gaat vaak om losse proefprojecten en beperkte inzet van generatieve AI, zoals ChatGPT van OpenAI of GitHub Copilot van Microsoft. Dat blijkt uit sectoranalyses die deze week zijn gedeeld, met nadruk op operationele kansen en risico’s. Redenen zijn onder meer datakwaliteit, gebrek aan vaardigheden en de komende Europese AI-verordening (AI Act) met gevolgen voor investeerders en toezicht.
Veel pilots, weinig schaal
De meeste bedrijven in PE-portefeuilles testen wel met kunstmatige intelligentie, maar zetten nog weinig door op schaal. Generatieve AI, een techniek die nieuwe tekst, beelden of code maakt op basis van voorbeelden, wordt vooral geprobeerd in klantenservice, marketing en softwareontwikkeling. Voorbeelden zijn ChatGPT, Google Gemini en GitHub Copilot. De stap naar integratie in kernprocessen blijft vaak uit.
Oorzaken zijn een onduidelijke businesscase en versnipperde IT-landschappen. Projecten starten in één team, zonder eigenaar in het management. Ook ontbreekt vaak een helder meetplan met doelen, kosten en baten. Daardoor stranden pilots na een eerste fase.
“Vroege fase” betekent: losse pilots, beperkte uitrol, weinig koppeling met data- en procesbeheer, en geen structurele training van medewerkers.
Toch zijn de eerste resultaten vaak positief in tijdwinst en kwaliteit. Denk aan snellere klantreacties, betere tekstvoorstellen of minder programmeerfouten. Zonder borging verdwijnt het effect echter snel. Schaal vraagt standaardisatie, budget en duidelijke spelregels.
Datakwaliteit blijft grootste horde
Zonder goede data presteren algoritmen slecht of onvoorspelbaar. Veel portfoliobedrijven hebben verouderde ERP-systemen en losse Excel-bestanden. Gegevens zijn onvolledig of dubbel, en metadata ontbreken. Dit belemmert training en evaluatie van modellen.
De AVG stelt bovendien eisen als dataminimalisatie en doelbinding. Bedrijven moeten vooraf bepalen welke data echt nodig zijn, en gevoelige informatie versleutelen. Een Data Protection Impact Assessment (DPIA) is vaak vereist. Dat kost tijd, maar voorkomt latere vertraging of boetes.
Een praktische stap is het opzetten van een centraal dataplatform met duidelijke datastandaarden. Zo’n “data lake” of “lakehouse” bundelt bronnen en maakt hergebruik veilig en controleerbaar. Basale MLOps, kort voor machinelearning-operations, helpt bij versiebeheer en testen van modellen. Zonder deze basis blijft elk AI-project maatwerk en duur.
Europese regels sturen keuzes
De Europese AI-verordening (AI Act) deelt systemen in risicoklassen in, zoals beperkt en hoog risico. Hoogrisico-toepassingen, bijvoorbeeld in werving of krediet, krijgen strikte plichten. Denk aan documentatie, logging, uitleg en menselijk toezicht. Dit werkt door in de waardering en het plan van aanpak bij deals.
Voor marketingteksten of codegeneratie gelden vooral transparantie-eisen. Toch spelen ook dan de AVG en sectorregels mee. Bedrijven moeten duidelijk maken dat AI is ingezet en hoe fouten worden hersteld. Leverancierskeuze en contracten worden daardoor belangrijker.
Toezichthouders in Europa, zoals de Autoriteit Persoonsgegevens in Nederland, letten op herleidbaarheid en privacy. Portfoliobedrijven doen er goed aan een register van AI-systemen bij te houden. Ook moeten zij vastleggen welke datasets en modellen worden gebruikt. Dit versnelt audits en vermindert juridisch risico.
Due diligence krijgt AI-paragraaf
Investeerders voegen AI-maturiteit toe aan commerciële en operationele due diligence. Zij toetsen of er een datavisie, governance en beveiliging is. Ook kijken zij naar leveranciers, zoals Microsoft Azure OpenAI Service of Google Cloud Vertex AI, en hun databeleid. Dat helpt om datalocatie en geheimhouding te borgen.
Een 100-dagenplan na de transactie werkt met duidelijke “use cases” en KPI’s. Voorbeelden zijn dynamic pricing, churn-voorspelling en voorraadoptimalisatie. Elk experiment krijgt een klein budget, heldere meetpunten en een stop/door-besluit. Zo groeit AI gecontroleerd mee met de operatie.
Beveiliging verdient aparte aandacht, ook bij generatieve AI. Risico’s zijn prompt-injecties, datalekken of het per ongeluk delen van broncode. Een veilige omgeving met toegangsrechten, logging en inhoudsfilters is nodig. Dit voorkomt dat gevoelige data in publieke modellen belanden.
Focus verschuift naar groei
AI begon bij veel bedrijven als kostenproject, met automatisering van repetitief werk. De nieuwe focus ligt op groei en klantwaarde. Denk aan snellere offertes, persoonlijker service en betere vraagvoorspelling. Dat vraagt nauwe samenwerking tussen sales, operatie en IT.
In industrie en logistiek levert voorspellend onderhoud direct voordelen op. Sensorgegevens helpen storingen eerder te zien. Minder stilstand betekent lagere kosten en hogere omzet. Ook hier geldt: zonder betrouwbare data blijft de winst beperkt.
In zorg en publieke diensten gelden extra regels en verwachtingen. AI kan ondersteunen bij planning en administratie, maar privacy weegt zwaar. Transparantie richting burgers en patiënten is verplicht. Dat past bij de geest van de AI Act en de AVG.
Tekort aan AI-vaardigheden
Er is schaarste aan data-engineers en machinelearning-specialisten. Portfoliobedrijven concurreren met grote techspelers om talent. Opleiden van eigen medewerkers is daarom cruciaal. Korte trainingen in datageletterdheid verkleinen de kloof.
Veel PE-huizen bouwen een centraal AI-team op fondsniveau. Zo’n “Center of Excellence” deelt sjablonen, inkoopkracht en best practices. Het team helpt bij selectie van modellen, zoals GPT-4 of Gemini, en bij risicobeheersing. Dit bespaart tijd bij elke nieuwe deal.
Samenwerking met hogescholen en universiteiten in Nederland kan de aanvoer van talent vergroten. Stages en gezamenlijke projecten leveren snelle, praktische resultaten. Nearshoring kan helpen, maar vraagt goede beveiliging en duidelijke datakaders. Zo blijft controle op kwaliteit en compliance geborgd op het moment van schrijven.
