AI begon groot: wat we van het mainframe kunnen leren

  • Home
  • >
  • Blog
  • >
  • Nieuws
  • >
  • AI begon groot: wat we van het mainframe kunnen leren

Amsterdam, 20 november 2025 09:34 

De AI-sector schuift in 2025 van grote cloudmodellen naar kleinere systemen op apparaten. Bedrijven en overheden in Europa zoeken zo meer grip op kosten, privacy en energie. Deze beweging is relevant voor Nederlandse instellingen, die moeten voldoen aan de AVG en de Europese AI-verordening. De vraag ā€œEuropese AI-verordening gevolgen overheidā€ staat daarbij centraal, omdat regels keuze voor cloud of lokaal bepalen.

AI herhaalt mainframecyclus

Kunstmatige intelligentie begon met enorme modellen in datacenters van Big Tech. Die centrale kracht lijkt op de mainframeperiode uit de jaren zestig en zeventig. Nu verschijnt dezelfde rekencapaciteit in kleinere, gerichtere vormen. Het zwaartepunt verschuift van ƩƩn groot systeem naar veel kleine, verbonden systemen.

In de IT gebeurde dit eerder met de pc en later met smartphones. Eerst was alles centraal, daarna werd rekenkracht persoonlijk en verspreid. AI volgt dit pad met compacte modellen die op laptops, telefoons en edge-servers draaien. Dit maakt toepassingen sneller en dichter bij de gebruiker.

Voor organisaties verandert de vraag van ā€œwelk model is het sterkst?ā€ naar ā€œwaar draait het veilig en betaalbaar?ā€. Locatie van verwerking wordt strategisch. Het gaat om controle over data, naleving van regels en voorspelbare kosten. Die factoren wegen in Europa vaak zwaarder dan puur maximale modelgrootte.

Kleinere modellen naar rand

Edge-AI betekent dat algoritmen direct op het apparaat draaien, niet in de cloud. Dat verkort wachttijden en kan gegevens lokaal houden. Het vermindert netwerkverkeer en cloudkosten. En het biedt continuĆÆteit als de internetverbinding wegvalt.

Grote leveranciers bewegen mee. Apple Intelligence verwerkt taken op iPhone en Mac en gebruikt Private Cloud Compute alleen waar nodig. Microsoft lanceerde Copilot+ pc’s met een NPU die AI-taken lokaal uitvoert. Google levert Gemini Nano op Android voor snelle, on-device functies.

Ook open modellen worden kleiner en efficiĆ«nter. Meta’s Llama 3.2, Google’s Gemma 2 en Mistral Small draaien met quantization op een goede laptop of mini-server. Ontwikkelaars combineren ze met retrieval augmented generation, een techniek die actuele bedrijfsdata ophaalt tijdens het antwoord. Zo blijft het model klein en toch relevant voor de taak.

Er zijn wel grenzen. Grote multimodale modellen voor complexe analyse of lange contexten vragen nog vaak om de cloud. Taken met zware training blijven gecentraliseerd. Organisaties kiezen daarom per use-case: lokaal waar het kan, cloud waar het moet.

EU-regels sturen lokaal

De AVG verplicht dataminimalisatie en doelbinding. Lokaal verwerken helpt, omdat er minder persoonsgegevens naar externe servers gaan. Een Data Protection Impact Assessment kan dan eenvoudiger uitvallen. Versleuteling en pseudonimisering blijven noodzakelijk, ook op het apparaat.

De Europese AI-verordening (AI Act) plaatst systemen in risicoklassen. Hogere risico’s, zoals toepassingen in overheid, zorg of onderwijs, vragen extra documentatie, tests en logging. Lokaal draaien beperkt dataoverdracht, maar neemt die plichten niet weg. Transparantie en menselijke controle blijven verplicht.

In Nederland wijst de Autoriteit Persoonsgegevens op privacy by design en strikte datadoorstroming. Overheidsorganisaties letten op dataresidency binnen de EU. Leveranciers moeten duidelijk maken waar modelinvoer en -uitvoer worden verwerkt. Contracten moeten hergebruik van data voor training expliciet uitsluiten.

Voor IT-inkoop betekent dit: kies EU-locaties, duidelijke verwerkersovereenkomsten en audits. Open modellen bieden extra controle, maar vereisen eigen beveiliging. Gesloten modellen bieden gemak, maar vragen strakkere afspraken over logs en telemetrie. Beide routes moeten aantoonbaar compliant zijn.

Edge-AI is het draaien van modellen op of dichtbij het apparaat van de gebruiker, zodat data het netwerk niet of minder hoeft te verlaten.

Kosten en energie tellen mee

Cloud-AI is flexibel, maar de kosten lopen op door rekenuren en dataverkeer. Inference, het uitvoeren van antwoorden, vormt vaak de grootste kostenpost. Lokaal draaien verlaagt de prijs per verzoek. Het maakt budgetten voorspelbaarder voor brede uitrol.

Energieverbruik speelt een grotere rol in Europa. NPUs en GPU’s op cliĆ«nt- en edge-niveau zijn zuiniger per taak dan grote clusters. Nederlandse regio’s letten op netcapaciteit en datacenterbelasting. Minder dataverkeer en meer lokale verwerking drukken de voetafdruk.

Bedrijven vallen bovendien onder de CSRD-rapportage over duurzaamheid. AI-workloads moeten daarin worden meegenomen. Efficiƫnte modellen en on-device verwerking helpen de cijfers. Ze verkleinen ook de afhankelijkheid van schaarse GPU-capaciteit.

Toch blijft training van geavanceerde modellen in hyperscale datacenters. Een hybride mix is daarom realistischer dan een volledige verhuizing. Optimalisatie verschuift naar selectie van de juiste taak per rekentype. Zo ontstaat een balans tussen prestaties, kosten en milieu.

Hybride aanpak wordt norm

De praktische route is: train centraal, draai lokaal waar mogelijk. Bedrijven koppelen compacte modellen aan hun interne bronnen via RAG. Ze gebruiken vector-databases om snel relevante documenten te vinden. Dit geeft actuele antwoorden zonder opnieuw te trainen.

Governance wordt een vast onderdeel van AI. Richt een modelcatalogus in, met versies, licenties en risico’s. Evalueer systemen periodiek op bias, veiligheid en outputkwaliteit. Houd een logboek bij voor de AI Act en interne audits.

Beveiliging begint bij het ontwerp. Versleutel gevoelige data, ook op apparaten. Schakel telemetrie uit die niet nodig is en minimaliseer prompts die persoonsgegevens bevatten. Test alternatieve modellen voor kritieke processen om lock-in te beperken.

Voor Nederlandse organisaties is de checklist helder. Bepaal de risicoklasse onder de AI Act en stel passende waarborgen in. Kies EU-hosting en onderzoek on-device opties zoals Llama 3.2, Gemini Nano of Mistral Small. Start met pilots in zorg, overheid of onderwijs en schaal op na bewezen winst in privacy, kosten en prestaties.


Over Dave

Hoi, ik ben Dave – schrijver, onderzoeker en nieuwsgierige geest achter AIInsiders.nl. Ik hou me bezig met de manier waarop technologie ons leven verandert, en vooral: hoe we dat een beetje kunnen bijbenen. Van slimme tools tot digitale trends, ik duik graag in de wereld achter de schermen.

Mijn stijl? Lekker helder, soms kritisch, altijd eerlijk. Geen onnodig jargon of overdreven hype, maar praktische inzichten waar je echt iets aan hebt. AI is niet eng of magisch – het is interessant, en ik help je graag om dat te zien.

{"email":"Email address invalid","url":"Website address invalid","required":"Required field missing"}

Misschien ook interessant

>