Fujitsu stelt dat organisaties hun digitale strategie moeten aanpassen. Economische schokken, geopolitieke spanningen en de snelle opkomst van kunstmatige intelligentie veranderen nu de spelregels. Het technologiebedrijf ziet dat bedrijven in Nederland en Europa keuzes moeten herzien rond data, cloud en beveiliging. Doel is wendbaar blijven en tegelijk aan strengere wetgeving voldoen.
Bedrijven herzien IT-strategie
Fujitsu benadrukt dat losse digitale projecten niet meer volstaan. Organisaties hebben een samenhangende architectuur nodig die AI-toepassingen veilig en schaalbaar kan ondersteunen. Dat vraagt om duidelijke afspraken over data, modellen en verantwoordelijkheden.
Veel bedrijven verschuiven van proefprojecten naar structureel gebruik van algoritmen. Dit betekent dat systemen traceerbaar en beheerbaar moeten zijn. Ook moet het duidelijk zijn wie ingrijpt als het model fouten maakt.
Een platformaanpak helpt kosten en risico’s te beheersen. Denk aan gedeelde componenten voor data-inname, modelbeheer en monitoring. Zo kunnen teams sneller werken en blijft de controle bij de organisatie.
Geopolitiek stuurt techkeuzes
Spanningen tussen landen raken leverketens en digitale infrastructuur. Bedrijven spreiden daarom risico’s met multicloud en alternatief transport van hardware en data. Fujitsu ziet dat organisaties vaker kiezen voor regionale datacenters en duidelijke exitplannen.
Data-soevereiniteit speelt hierin een hoofdrol. Europese bedrijven willen zeker weten waar data staat en welke wet geldt. Projecten als GAIA-X moeten helpen met afspraken over interoperabiliteit en vertrouwen.
Ook in Nederland groeit de aandacht voor soevereine cloudopties bij overheid en kritieke sectoren. Dit leidt tot strengere contracten met voorwaarden voor support, audit en migratie. Leveranciers moeten aantonen dat diensten blijven draaien bij een geopolitieke of juridische schok.
AI-verordening wordt bepalend
De Europese AI-verordening (AI Act) bepaalt hoe AI-systemen in de EU mogen worden ontwikkeld en gebruikt. De wet werkt met risicoklassen en legt voor hoog risico extra eisen op. Denk aan risicobeheer, menselijke controle, logging en duidelijke documentatie.
Voor Nederlandse organisaties betekent dit dat zij hun modellen moeten classificeren en registreren. Ook is een impactanalyse nodig als de toepassing ingrijpt in rechten of veiligheid. De AVG blijft gelden voor alle persoonlijke data, met eisen als dataminimalisatie en versleuteling.
Generatieve systemen vragen extra aandacht voor brondata, bias en hergebruik van output. Bedrijven moeten kunnen uitleggen hoe content is gemaakt en welke rechten gelden. Dat vraagt om interne richtlijnen en audits, ook bij inkoop van externe modellen.
Hoogrisico-AI in de EU moet aantoonbaar veilig, uitlegbaar en onder menselijk toezicht zijn, met goed beheer van data en logbestanden.
Veiligheid en NIS2 vergroten druk
Fujitsu ziet dat veiligheid nu een bestuurskwestie is. Met NIS2 vallen meer sectoren onder strengere beveiligingsnormen en meldplichten. Bestuurders dragen verantwoordelijkheid voor beleid, training en incidentafhandeling.
Zero-trust wordt de standaard voor toegang tot systemen en data. Dit betekent continu verifiëren, minimaal benodigde rechten en segmentatie van netwerken. AI-toepassingen moeten daarin passen, inclusief beheer van API-sleutels en modeltoegang.
Op het moment van schrijven werken EU-lidstaten aan de volledige implementatie en handhaving van NIS2. Nederlandse organisaties doen er goed aan hun maturiteit te meten en gaten te dichten. Denk aan patchbeleid, back-ups, detectie en crisisoefeningen.
Datakwaliteit wordt strategisch
AI presteert alleen goed met schone, representatieve data. Fujitsu wijst op de noodzaak van data-inventarisatie en duidelijke eigenaarschap. Zonder databeleid lopen projecten vast in fouten, bias of juridische risico’s.
Dataminimalisatie helpt kosten en risico’s verlagen. Verzamel alleen wat nodig is en verwijder verouderde data. Dit sluit aan bij de AVG en maakt audits eenvoudiger.
Veel organisaties combineren data uit ERP, CRM en sensoren aan de rand van het netwerk. Edge-verwerking kan privacy en snelheid verbeteren. Het vraagt wel om consistente beveiliging, van device tot dataplatform.
Krapte vraagt om opschaling
De arbeidsmarkt voor data- en AI-specialisten blijft krap. Bedrijven moeten investeren in bijscholing en duidelijke rollen, zoals MLOps en AI-governance. De Nederlandse AI Coalitie stimuleert samenwerking tussen onderwijs en bedrijfsleven.
Tooling kan het werk versnellen, maar verandert ook functies. Citizen developers krijgen meer mogelijkheden, mits er toezicht en kwaliteitscontrole is. Dat voorkomt schaduw-IT en onveilige experimenten met generatieve modellen.
Transparante richtlijnen voor het gebruik van AI in teams zijn nodig. Leg vast welke data wel en niet in externe tools mag. En maak het eenvoudig om veilige alternatieven binnen de organisatie te gebruiken.
Praktische stappen voor nu
Begin met een risicokaart voor AI-toepassingen en koppel die aan de AI Act. Maak een register van modellen, inclusief doel, data en meetwaarden. Voer voor gevoelige use-cases een Data Protection Impact Assessment uit onder de AVG.
Kies cloud en data-opslag met soevereiniteit en exit in het achterhoofd. Leg in contracten vast waar data staat, wie toegang heeft en hoe migratie werkt. Test regelmatig of herstel en overstap echt mogelijk zijn.
Stel tenslotte een multidisciplinair AI-board in met IT, juridisch en business. Meet prestaties en risico’s doorlopend, niet alleen bij lancering. Zo blijft de organisatie wendbaar, compliant en weerbaar tegen schokken.
