AI-ambities van bedrijven stranden: waarom bijna elk AI-project faalt

  • Home
  • >
  • Blog
  • >
  • Nieuws
  • >
  • AI-ambities van bedrijven stranden: waarom bijna elk AI-project faalt

Amsterdam, 26 oktober 2025 10:34 

Bedrijven in Nederland en Europa rollen kunstmatige intelligentie uit op grote schaal. Toch blijven tastbare resultaten vaak uit, en veel projecten stranden al in de pilotfase. Organisaties worstelen met data, vaardigheden en toezicht, terwijl de Europese AI-verordening gevolgen overheid en bedrijven aanscherpt. Populaire tools als OpenAI’s ChatGPT, Microsoft Copilot en Google Gemini worden getest, maar leveren zonder duidelijke doelen weinig waarde op.

Bedrijven starten, resultaten blijven uit

Veel organisaties beginnen met proefprojecten rond generatieve AI, een systeem dat zelf tekst, code of beelden kan maken. Teams proberen ChatGPT, Microsoft Copilot of Gemini in kantoorsoftware of klantenservice. De eerste reacties zijn positief, maar het effect op productiviteit of kosten blijft vaak onduidelijk. Zonder harde doelen en metingen eindigt het project als experiment.

IT-afdelingen zien dat pilots lastig op te schalen zijn naar de hele organisatie. Het aantal gebruikers groeit snel, maar de werkprocessen zijn er niet klaar voor. Beveiliging, rechten en logging zijn vaak nog niet ingericht. Daardoor gaat het tempo eruit en blijft de impact beperkt.

Ook blijkt het moeilijk om ƩƩn succesvol experiment te herhalen in andere teams. Wat werkt in marketing, werkt niet automatisch in finance of HR. Elk domein heeft andere data, risico’s en regels. Die verschillen maken standaardisatie lastig.

Data en doel missen basis

De kwaliteit van data is vaak de zwakke plek. Veel bedrijven hebben versnipperde gegevens in oude systemen. Modellen leveren dan wisselende uitkomsten, of halen context weg. Zonder goed databeheer blijft het algoritme onbetrouwbaar.

Belangrijk is een duidelijke businesscase met meetbare doelen. Denk aan kortere afhandeltijd, minder fouten of hogere klanttevredenheid. Zonder KPI’s is het moeilijk om waarde, risico’s en kosten te wegen. AI is een middel, geen doel op zichzelf.

Privacy speelt daarbij direct mee. De AVG eist dataminimalisatie en een passende grondslag voor het gebruik van persoonsgegevens. Training op e-mails of klantdossiers kan niet zomaar. Vaak is een DPIA nodig om risico’s vooraf te beoordelen.

Europese AI-verordening gevolgen overheid

De AI-verordening (AI Act) zet in 2024–2026 stapsgewijs nieuwe regels neer. Systemen in hoge-risico gebieden, zoals onderwijs, werk of zorg, krijgen extra eisen. Organisaties moeten dan onder meer risicobeheer, documentatie, testen en menselijk toezicht aantoonbaar regelen. Voor generieke modellen gelden aparte verplichtingen, zeker bij krachtige foundation-modellen.

Voor overheden betekent dit strengere inkoop en transparantie. Gemeenten en uitvoerders moeten kunnen uitleggen hoe een algoritme werkt en wordt gecontroleerd. Nederland heeft al stappen gezet met registers voor algoritmen, zoals in Amsterdam. De Autoriteit Persoonsgegevens houdt toezicht op naleving, op het moment van schrijven.

Bedrijven die aan de overheid leveren, merken dit in aanbestedingen. Contracten vragen vaker om modelkaarten, bias-tests en incidentprocedures. Ook leveranciers van cloud en AI-API’s, zoals Microsoft Azure OpenAI Service of Google Cloud Vertex AI, zullen meer bewijs van conformiteit moeten tonen. Dat vraagt om volwassen AI-governance in de hele keten.

Generatieve tools vragen toezicht

Generatieve AI kan overtuigende, maar onjuiste antwoorden geven. Dit vergroot risico’s op foute adviezen, misleidende samenvattingen of bronĀ­vervaging. Daarom is menselijk toezicht nodig, zeker bij klantcontact of besluitvorming. Evaluatie en herhaling blijven onderdeel van het proces.

Hallucinaties zijn verzonnen antwoorden van een AI-systeem die overtuigend klinken.

Technieken zoals retrieval-augmented generation (RAG) helpen met actuele en gecontroleerde bronnen. RAG haalt eerst documenten op en laat het model antwoorden met die context. Dit verkleint het risico op fouten en biedt betere herleidbaarheid. Het vraagt wel om goed ingerichte zoekindexen en toegangsrechten.

Voor veilig gebruik kiezen organisaties voor afgeschermde omgevingen. Denk aan Copilot met tenantbeperkingen, Azure OpenAI met eigen versleuteling, of on-premise modellen. Zo voorkomen teams dat gevoelige data het internet op gaat. Loggen en auditen worden dan standaard onderdeel van het beheer.

Kosten, cloud en lock-in

De kosten van AI zitten niet alleen in licenties. Rekenwerk, opslag en dataverkeer tellen hard mee, vooral bij grote taalmodellen. Intensief gebruik kan rekeningen onverwacht verhogen. Budgetbewaking en limieten zijn daarom essentieel.

Keuzes voor cloud bepalen flexibiliteit en risico op lock-in. Proprietary modellen zoals GPT-4o of Gemini 1.5 Pro bieden hoge kwaliteit, maar binden je aan ƩƩn platform. Open modellen zoals Llama 3 of Mistral geven meer controle, maar vragen extra beheer. Een hybride strategie kan de risico’s spreiden.

Optimalisatie scheelt veel geld en energie. Kleinere, taakgerichte modellen draaien goedkoper en sneller. Caching en prompt-hergebruik verminderen tokens. Dit maakt AI-toepassingen duurzamer en beter te plannen.

Lessen voor Nederlandse organisaties

Zet eerst de basis neer: data op orde, duidelijke doelen en een governanceplan. Leg vast wie eigenaar is, hoe wordt getest en wie mag uitrollen. Betrek security, legal en de ondernemingsraad bij gebruik dat werknemers raakt. Dat voorkomt vertraging en klachten achteraf.

Begin met afgebakende use-cases, zoals interne zoekopdrachten of samenvattingen. Meet het effect met vooraf gekozen KPI’s en stop als de waarde uitblijft. Werk met een mens-in-de-lus bij gevoelige taken. Zo blijft kwaliteit en verantwoordelijkheid geborgd.

Houd rekening met de AI Act en de AVG in ontwerp en inkoop. Vraag leveranciers om documentatie, risicobeoordelingen en incidentprocedures. Train medewerkers in veilig prompten en bronvermelding. Met deze stappen neemt de kans op mislukte AI-projecten voelbaar af.


Over Dave

Hoi, ik ben Dave – schrijver, onderzoeker en nieuwsgierige geest achter AIInsiders.nl. Ik hou me bezig met de manier waarop technologie ons leven verandert, en vooral: hoe we dat een beetje kunnen bijbenen. Van slimme tools tot digitale trends, ik duik graag in de wereld achter de schermen.

Mijn stijl? Lekker helder, soms kritisch, altijd eerlijk. Geen onnodig jargon of overdreven hype, maar praktische inzichten waar je echt iets aan hebt. AI is niet eng of magisch – het is interessant, en ik help je graag om dat te zien.

{"email":"Email address invalid","url":"Website address invalid","required":"Required field missing"}

Misschien ook interessant

>