Bedrijven testen steeds vaker kunstmatige intelligentie in de top van de organisatie. Toch vervangen ze de CEO niet door een algoritme. In Europa en Nederland spelen wetgeving, aansprakelijkheid en vertrouwen een grote rol. De Europese AI-verordening en de AVG stellen grenzen aan wat een systeem mag beslissen in bestuur en HR.
AI mist gezag en context
Grote taalmodellen zoals GPT-4o van OpenAI, Claude 3.5 van Anthropic, Gemini 1.5 van Google en Llama 3 van Meta voorspellen het volgende woord op basis van data. Dat levert vlotte analyses en adviezen op, maar geen begrip van de volledige situatie. Het risico op “hallucinaties” blijft aanwezig, ook bij belangrijke besluiten. Een CEO moet juist omgaan met onzekere informatie en onvolledige data.
Leiderschap vraagt meer dan rekenen. Het draait om context, vertrouwen, timing en gevoel voor mensen. Een directiebesluit raakt personeel, klanten, toezichthouders en maatschappij tegelijk. Die belangenweging kan een model niet autonoom en verantwoord uitvoeren.
Algoritmen optimaliseren wat meetbaar is. Ze missen vaak cultuur, reputatie en ethiek op de lange termijn. Dat kan leiden tot beslissingen die op papier kloppen, maar in de praktijk schade doen. Een mens kan terugkomen op een keuze, uitleggen en verantwoordelijkheid nemen.
Bestuur vereist rechtsstatus
In het Nederlandse en Belgische ondernemingsrecht moeten bestuurders natuurlijke personen of rechtspersonen zijn. Een AI-systeem heeft geen rechtspersoonlijkheid. Het kan geen contract tekenen, geen jaarrekening vaststellen en niet wettelijk aansprakelijk zijn. Een “AI-CEO” kan daarom juridisch geen bestuursfunctie vervullen.
Ook de aansprakelijkheid botst. Wie draait op voor een fout besluit: ontwikkelaar, leverancier of commissarissen? D&O-verzekeringen zijn gemaakt voor mensen en rechtspersonen, niet voor software. Productaansprakelijkheid voor software en bestuurdersaansprakelijkheid vallen nu nog uiteen.
De raad van bestuur kan taken delegeren, maar niet de eindverantwoordelijkheid. Kernbesluiten moeten door mensen worden genomen en ondertekend. Zonder duidelijke verantwoordelijke is toezicht door de raad van commissarissen en externe toezichthouders onwerkbaar.
AI-verordening begrenst gebruik
De Europese AI-verordening (AI Act) werkt met risicoklassen en treedt gefaseerd in werking vanaf 2025, op het moment van schrijven. Systemen voor arbeidsbeslissingen vallen vaak onder “hoog risico”. Dat vraagt om risicobeheer, datakwaliteit, logging, menselijke controle en duidelijke documentatie. Generatieve modellen krijgen extra transparantie-eisen.
Als een bestuur AI inzet voor HR, krediet of naleving, gelden strengere regels. Organisaties moeten uitleg kunnen geven, datasets beheren en bias testen. Ook moet er een mens besluiten als er significante gevolgen zijn. Zonder deze waarborgen dreigt non-compliance en reputatieschade.
Daarnaast geldt de AVG. Bestuursbesluiten verwerken vaak gevoelige persoonsgegevens. Dat vraagt dataminimalisatie, doelbinding en passende beveiliging. Bij externe AI-diensten zijn verwerkersovereenkomsten en gegevenslokatie in de EU essentieel.
Artikel 22 AVG: niemand mag worden onderworpen aan een uitsluitend geautomatiseerde beslissing met rechtsgevolgen, behoudens beperkte uitzonderingen met waarborgen zoals menselijke tussenkomst.
Praktijkproeven blijven beperkt
Enkele bedrijven experimenteerden publiekelijk met een “AI-CEO” als proef of PR-stunt. In de praktijk bleven mensen verantwoordelijk voor de besluiten. Zulke pilots laten zien wat tooling kan, maar ook de grenzen. Bedrijven keren vaak terug naar AI als assistent, niet als eindverantwoordelijke.
De realistische inzet is een digitale co-piloot. Denk aan Microsoft Copilot of eigen GPT-varianten die vergaderingen samenvatten, scenario’s doorrekenen of risico’s opsommen. Met retrieval augmented generation kan het systeem veilig putten uit interne documenten. Belangrijk is zero-retention, versleuteling en gescheiden omgevingen.
Goede governance is cruciaal. Leg vast waarvoor het model wel en niet wordt gebruikt. Houd auditlogs bij en test regelmatig op bias en fouten. Laat gevoelige besluiten altijd door twee mensen beoordelen.
Nederlandse boardroom is voorzichtig
In Nederland moet de ondernemingsraad worden betrokken bij beslissingen over technologie die werk raakt. Een AI-systeem dat invloed heeft op roosters, beoordelingen of reorganisaties valt daaronder. Vroege en transparante consultatie verkleint risico’s en weerstand. Het helpt ook bij het inrichten van menselijk toezicht.
Voor banken en verzekeraars gelden extra eisen van DNB en de ECB voor modelrisico. Uitlegbaarheid, validatie en noodprocedures zijn verplicht. Dat maakt een autonome “AI-CEO” onhaalbaar, maar een gecontroleerde co-piloot mogelijk. De CIO en CRO moeten meekijken vanaf het begin.
Beursgenoteerde ondernemingen staan onder toezicht van de AFM. Fouten in door AI gegenereerde financiële communicatie kunnen leiden tot misleiding. Bedrijven doen er goed aan AI-gebruik in investor relations te begrenzen en te documenteren. Transparantie richting de markt voorkomt gedoe achteraf.
Zo kan het wél nu
Begin klein en afgebakend. Gebruik AI voor voorbereiding, research en monitoring, niet voor eindbesluiten. Laat het systeem bronnen citeren en onzekerheid aangeven. Train bestuurders in het lezen van modeluitvoer, inclusief beperkingen.
Bouw op eigen data, met strikte toegang. Anonimiseer personeels- en klantgegevens waar mogelijk. Kies leveranciers met EU-datacenters en duidelijke auditrapporten. Maak afspraken over incidentrespons en modelupdates.
Meet effect en risico tegelijk. Kijk naar tijdswinst, maar ook naar foutpercentages en bias. Evalueer elk kwartaal of de inzet voldoet aan de AI Act en de AVG. Zo blijft AI een hulpmiddel, en geen schijn-CEO.
