Cisco presenteert een open framework voor veilige AI-codegeneratie. Het richt zich op ontwikkelteams bij bedrijven en overheden, in Europa en daarbuiten. De introductie komt uit Cisco’s beveiligingstak en is bedoeld voor direct gebruik in bestaande softwareprocessen. Het doel is minder fouten, minder kwetsbaarheden en betere naleving van de AVG en de Europese AI-verordening, inclusief de Europese AI-verordening gevolgen overheid.
Framework stuurt AI-code aan
Het framework zet duidelijke veiligheidsregels rond AI die code schrijft of aanbeveelt. Denk aan automatische controles op kwetsbaarheden en foutgevoelige patronen. Zo’n controle gebeurt vóór code naar test of productie gaat. Dat verkleint de kans op lekken en uitval.
Het systeem werkt als een laag bovenop AI-assistenten die code genereren. Het dwingt beleid af, zoals geen harde wachtwoorden in code. Ook kan het waarschuwingen tonen bij risicovolle bibliotheken. Zo blijft de ontwikkelaar in controle.
Beheerders kunnen bepalen welke modellen gebruikt mogen worden. Ze kunnen ook vastleggen welke gegevens wel of niet naar een model mogen. Dit helpt bij dataminimalisatie, een eis uit de AVG. Bedrijfsgeheimen en persoonsgegevens blijven zo beter afgeschermd.
Open en koppelbaar ontwerp
Het framework is open en uitbreidbaar. Dat betekent dat organisaties eigen plug-ins en regels kunnen toevoegen. Het werkt naast bestaande ontwikkeltools, zoals codeopslag en testpijplijnen. Zo hoeft de werkstroom niet op de schop.
Koppelpunten (API’s) maken integratie met beveiligingsscans mogelijk. Een statische code-analyse (SAST) controleert code zonder die uit te voeren. Een afhankelijkhedenscan bekijkt gebruikte pakketten op bekende fouten. Beide checks zijn gangbaar in moderne softwareteams.
Door het open karakter is er minder risico op leverancierslock-in. Teams kunnen wisselen van AI-model of beveiligingsscanner. De regels en logs blijven hetzelfde. Dat vereenvoudigt audits en interne rapportage.
Beveiliging en privacy standaard
Het framework registreert beslissingen van de AI en de ontwikkelaar. Deze auditlog laat zien waarom code is geaccepteerd of aangepast. Dat is nuttig voor compliance en forensisch onderzoek. Het maakt ook kwaliteitstrends zichtbaar in de tijd.
Gevoelige data kan standaard worden gefilterd of geanonimiseerd voordat prompts naar een model gaan. Dit heet gegevensredactie en verkleint datalekrisico’s. Versleuteling tijdens verzending en opslag is daarbij de norm. Zo blijft broncode beter beschermd.
Teams kunnen een Software Bill of Materials (SBOM) genereren. Dat is een overzicht van alle gebruikte software-onderdelen. Bij een nieuwe kwetsbaarheid zie je snel of je geraakt bent. Snellere patching wordt daarmee haalbaar.
Veilige AI-codegeneratie betekent dat algoritmen standaard beveiligingscontroles toepassen en geen gevoelige data verwerken, voordat code wordt uitgerold.
Gevolgen Europese AI-verordening
Code-assistenten vallen in Europa onder regels voor algemene doeleinden AI (GPAI). De AI-verordening verplicht documentatie, transparantie en risicobeperking. Een open framework helpt om die eisen aantoonbaar te maken. Denk aan logboeken, beleidsregels en testresultaten.
Voor Nederlandse overheden en semipublieke instellingen telt ook de BIO en inkooprichtlijnen. Zij moeten kunnen tonen dat systemen veilig zijn ingericht. Dit framework kan als technische maatregel dienen. Het ondersteunt het principe “security by design”.
De AVG blijft leidend bij broncode met persoonsgegevens. Dataminimalisatie en doelbinding zijn dan verplicht. Het afdwingen van datarichtlijnen in prompts helpt daarbij. Ook beperkt on-premises inzet het delen van data met externe partijen.
Praktische inzet in teams
Het framework past in bestaande CI/CD-processen, de geautomatiseerde stappen van bouwen en uitrollen. Regels kunnen per project verschillen. Zo kan een zorgapp strengere datalimieten krijgen. Teams houden snelheid, maar met meer zekerheid.
Beveiligingswaarschuwingen moeten helder en actiegericht zijn. Te veel meldingen leiden tot alert-moeheid. Daarom is prioritering belangrijk, bijvoorbeeld op basis van bekende aanvalspatronen. Betere signalen besparen tijd en verlagen risico.
Training en duidelijke afspraken blijven nodig. AI blijft soms onjuiste of onvolledige code voorstellen. Een menselijke review is dus verplicht, zeker in kritieke systemen. Het framework ondersteunt die review, het vervangt die niet.
Grenzen en aandachtspunten
Een framework is geen wondermiddel tegen alle kwetsbaarheden. De kwaliteit hangt af van de gekozen modellen en regels. Regelmatige updates zijn nodig, net als tests op nieuwe aanvalstechnieken. Zonder onderhoud neemt het risico weer toe.
Niet alle leveranciersdocumentatie is even transparant. Dat kan het beoordelen van GPAI-risico’s lastig maken. Kies daarom voor modellen met duidelijke technische documenten. Dat sluit aan bij de eisen uit de AI-verordening.
Tot slot kost invoering tijd en discipline. Teams moeten hun workflows aanpassen en meten wat werkt. Begin klein, met één repository en strikte evaluatie. Schaal daarna op met lessen uit de praktijk.
