Jerome Powell, voorzitter van de Federal Reserve, zei deze week in de Verenigde Staten dat kunstmatige intelligentie anders is dan de dotcombubbel. Hij ziet snelle invoering in bedrijven en diensten. Dat kan de productiviteit verhogen, maar ook markten onrustig maken. Dit raakt ook de Europese AI-verordening gevolgen overheid en banken in Europa.
AI niet als dotcombubbel
Powell benadrukte dat de huidige AI-golf wezenlijk verschilt van de internetgekte rond 2000. Bedrijven zetten systemen nu al in voor werkprocessen, klantenservice en software. Denk aan ChatGPT van OpenAI, Google’s Gemini en Microsoft Copilot in kantoorpakketten. Dat zijn concrete toepassingen met zichtbaar gebruik.
Bij de dotcombubbel draaide veel om verwachting zonder winst. Nu boeken grote techbedrijven wel degelijk omzet en winst, en investeren zij zwaar in data-infrastructuur en chips. Nvidia levert bijvoorbeeld de rekenchips die veel AI-modellen aandrijven. Toch blijven waarderingen volatiel en kunnen koersen snel draaien.
De centrale bank kijkt vooral naar de impact op groei, werkgelegenheid en financiële stabiliteit. Snellere productiviteit kan de economie versterken, maar ook banen veranderen. Powell is op het moment van schrijven voorzitter van de Federal Reserve en vermijdt uitspraken over individuele aandelen. Zijn punt: de economische effecten zijn reëel, maar nog onzeker in omvang en timing.
Productiviteit met onzekerheden
AI kan taken versnellen, van coderen tot klantenmail. Generatieve AI is software die tekst, beeld of code maakt op basis van voorbeelden. Voorbeelden zijn ChatGPT, Gemini en open modellen zoals Llama. In veel kantoren en callcenters zijn pilots al gestart.
Vroege onderzoeken tonen vaak tijdwinst en betere output, vooral bij routinetaken. Toch ontstaan fouten, zoals verzinsels of verouderde feiten. Daarom blijft menselijke controle nodig, plus heldere instructies en betrouwbare data. Bedrijven moeten meten waar AI echt waarde toevoegt.
Voor Europa en Nederland is dit kans en opgave tegelijk. De productiviteitsgroei is al jaren matig. Vaardigheden, data-kwaliteit en veilige integratie bepalen het effect. Zonder investeringen in scholing en IT blijft de winst beperkt.
Marktrisico vraagt om toezicht
AI kan marktdynamiek versterken, bijvoorbeeld bij algoritmische handel. Als veel partijen dezelfde signalen volgen, kan dat schokken vergroten. Ook kan cyberrisico toenemen door complexere ketens. Toezichthouders volgen dit nauwgezet.
De EU ziet kredietbeoordeling en werving met AI als hoog risico onder de AI-verordening. Dat vraagt strenge testen, logging, uitleg en toezicht door mensen. In de financiële sector komen daar modelrisico en datakwaliteit bovenop. Banken moeten weten wat een model doet en waarom.
De Europese Centrale Bank en De Nederlandsche Bank leggen nadruk op modelgovernance. De AFM kijkt naar zorgplicht en transparantie bij beleggingsapps en adviestools. Samen moet dit witdoeken van risico’s voorkomen. Zo blijft innovatie mogelijk zonder systeemrisico te vergroten.
Europese AI-verordening gevolgen overheid
Ook overheden gebruiken algoritmen, bijvoorbeeld bij vergunningen of fraude-opsporing. De AI-verordening (AI Act) stelt eisen aan transparantie, datakwaliteit en toezicht per risicoklasse. Voor uitvoeringsorganisaties in Nederland, zoals gemeenten, UWV en de Belastingdienst, betekent dit nieuwe plichten. Denk aan risicobeoordelingen en registers voor AI-systemen.
De AI-verordening deelt systemen in vier risicoklassen: minimaal, beperkt, hoog en onaanvaardbaar.
De AVG blijft daarnaast leidend voor privacy. Dataminimalisatie, versleuteling en duidelijke doelen zijn verplicht. Burgers houden rechten op inzage en uitleg bij automatische besluiten. Dat vraagt begrijpelijke communicatie en bezwaarprocedures.
Publieke inkoop wordt belangrijk om risico’s te sturen. Contracten met leveranciers moeten uitleg, auditrechten en beveiliging afdwingen. Ook open standaarden en interoperabiliteit tellen mee. Zo voorkomt de overheid afhankelijkheid van één platform.
Techreuzen bepalen het tempo
De grootste investeringen komen van Microsoft, Alphabet, Amazon en Nvidia. Zij bouwen datacenters, chips en modellen. Dit duwt indexen omhoog, maar vergroot concentratierisico. Een tegenvaller bij één speler raakt meteen de markt.
Europa werkt aan eigen alternatieven en weerbaarheid. Denk aan Mistral AI en Aleph Alpha voor modellen, en initiatieven rond Europese cloud en halfgeleiders. Open-modellen, zoals Llama van Meta, bieden keuzevrijheid. Toch blijft de afhankelijkheid van Amerikaanse chips en cloud groot.
Mededingingsregels spelen hier een rol. De Digital Markets Act en lopende onderzoeken moeten eerlijke toegang en interoperabiliteit afdwingen. Grote samenwerkingen, zoals tussen Microsoft en OpenAI, staan onder toezicht. Dat kan de machtsbalans in het ecosysteem verschuiven.
Gevolgen voor nu en hier
Voor beleggers geldt: vergelijk dit niet één-op-één met 2000. Kijk naar winsten, adoptie en de kosten van naleving. Diversifieer en let op concentratie in een paar AI-aandelen. Volg ook regelgeving en veiligheidssignalen.
Voor bedrijven en overheden is governance cruciaal. Stel richtlijnen op voor datagebruik, toets bias en leg keuzes vast. Combineer kleine, veilige pilots met metingen van productiviteit en kwaliteit. Train medewerkers in AI-gebruik en controle.
Burgers zien sneller betere diensten, maar ook nieuwe risico’s. Het recht op uitleg en bezwaar onder de AVG blijft bestaan. Vraag altijd om menselijke herbeoordeling bij ingrijpende besluiten. Zo blijft AI een hulpmiddel, geen zwarte doos.
