In België presenteert de liberale partij MR deze week een pakket van zeventig voorstellen voor kunstmatige intelligentie. Het plan wil bedrijven, scholen en overheden sneller laten werken met algoritmen. De partij wil voorkomen dat België economische kansen mist en publieke diensten achterblijven. De voorstellen sluiten aan op Europese regels zoals de AI-verordening en de AVG.
MR wil versnelling
MR zet met zeventig punten in op een versnelde invoering van AI in economie en overheid. De partij combineert innovatiebeleid met aandacht voor vaardigheden en vertrouwen. Het doel is een duidelijke koers én tempo voor de komende jaren.
De uitvoering vraagt samenwerking tussen federale en regionale niveaus. Wetgeving, begroting en praktische ondersteuning moeten op elkaar aansluiten. Zonder die coördinatie blijven losse pilots hangen en schiet de productiviteit niet op.
Economisch draait het om groei en om de krappe arbeidsmarkt. Slimme systemen kunnen taken versnellen en fouten verminderen. Maar zonder gerichte keuzes in onderwijs, infrastructuur en regelgeving blijft de belofte theoretisch.
Aansluiting op AI-verordening
De Europese AI-verordening werkt met risico’s per toepassing en geldt ook voor Belgische organisaties. MR positioneert de voorstellen als een route om sneller aan die eisen te voldoen. Dat geeft bedrijven en overheden duidelijkheid over wat wel en niet kan.
Daarnaast blijft de AVG leidend voor persoonsgegevens. Dat betekent dataminimalisatie, een duidelijk doel en beveiliging, ook bij het trainen van modellen. Voor publieke diensten vraagt dit om privacy by design en goede documentatie.
België moet nog een of meer bevoegde autoriteiten aanwijzen voor toezicht op AI-systemen. Een nationaal aanspreekpunt kan regels uitleggen en proeftuinen begeleiden. Dat voorkomt dat kmo’s verdwalen in Europese en nationale regels.
De Europese AI-verordening werkt met risicoklassen: minimaal, beperkt, hoog en verboden. Voor hoog risico gelden strikte eisen zoals datakwaliteit, documentatie, menselijk toezicht en robuustheid.
Vaardigheden en onderwijs eerst
Het plan legt de nadruk op mensen opleiden. Werknemers moeten leren werken met datamodellen en de uitkomsten begrijpen. Hogescholen en universiteiten kunnen modules toevoegen, met stages bij bedrijven en overheden.
Ook het secundair onderwijs kan basiskennis bieden over algoritmen. Een algoritme is een reeks stappen waarmee een systeem een taak uitvoert. Zo ontstaat AI-geletterdheid bij jongeren en docenten.
Voor wie dreigt achter te raken zijn omscholing en begeleiding nodig. Regionale diensten als VDAB, Forem en Actiris kunnen trajecten opzetten voor knelpuntberoepen. Betaalbare cursussen en werk-leerplekken helpen kmo’s en werknemers mee te bewegen.
Overheid gebruikt AI verantwoord
AI kan de overheid helpen bij dossierafhandeling, planning en dienstverlening. Maar publieke inzet raakt direct aan rechten van burgers. Daarom zijn transparantie, uitlegbaarheid en menselijk toezicht verplicht.
Veel overheids-systemen vallen al snel in de categorie hoog risico onder de AI-verordening. Dat vraagt voorafgaande risicobeoordelingen en logboeken van beslissingen. Ook moet altijd duidelijk zijn hoe iemand bezwaar maakt of menselijk herziening krijgt.
Inkoop wordt daarmee strategisch. Contracten moeten eisen bevatten over datakwaliteit, beveiliging en exit-mogelijkheden. Open standaarden en auditrechten verkleinen afhankelijkheid van één leverancier.
Kans voor start-ups en kmo’s
Voor kleinere bedrijven draait succes om toegang tot kennis, data en rekenkracht. Proeftuinen en regelgevingssandboxes kunnen experimenten mogelijk maken met beperkt risico. Dat versnelt leren zonder meteen zware boetes te riskeren.
Rekenkracht is duur, zeker bij grote modellen. Aansluiting op Europese initiatieven zoals EuroHPC en dataruimtes onder GAIA-X kan helpen. Deelplatformen en gezamenlijke testdata verlagen de drempel voor kmo’s.
Interoperabiliteit en open source krijgen een plek om lock-in te voorkomen. Standaardformaten maken overstappen en combineren van systemen makkelijker. Zo blijft de markt concurrerend en innovatie betaalbaar.
Risico’s blijven aandacht vragen
AI kan discrimineren, fouten maken of misbruikt worden voor desinformatie. Watermerken en herkomstlabels helpen bij het herkennen van synthetische media. Toch blijft menselijk oordeel nodig in gevoelige processen.
Burgers moeten klachten kunnen indienen en schade kunnen verhalen. De Gegevensbeschermingsautoriteit (GBA/APD) en toekomstige AI-toezichthouders spelen daarin een sleutelrol. Heldere procedures en snelle handhaving bouwen vertrouwen op.
De AI-verordening treedt gefaseerd in werking tussen 2025 en 2027; op het moment van schrijven werken lidstaten aan nationale invulling. MR zet met dit pakket de toon voor Belgische keuzes in die periode. De politieke steun en het budget bepalen nu of de plannen ook echt landen in klaslokalen, kantoren en loketten.
