Agentic en generatieve AI veranderen cyberaanvallen en verdediging

  • Home
  • >
  • Blog
  • >
  • Nieuws
  • >
  • Agentic en generatieve AI veranderen cyberaanvallen en verdediging

Amsterdam, 16 december 2025 09:34 

Europese beveiligingsteams zien nieuwe risico’s door generatieve en agentic AI. Deze systemen veranderen aanvallen en verdediging tegelijk, ook bij overheid en kritieke sectoren in Nederland. Recent benadrukken leveranciers en onderzoekers dat de Europese AI-verordening gevolgen overheid en bedrijven snel voelbaar worden. De kern: aanvallen schalen op, verdediging moet mee automatiseren en beter aantoonbaar worden.

Agenten versnellen aanvallen

Agentic AI zijn modellen die zelfstandig doelen plannen en stappen uitvoeren, bijvoorbeeld voor verkenning of phishing. Daardoor daalt de drempel voor cybercrime: teksten, code en social engineering worden sneller en geloofwaardiger. Aanvallers combineren taalmodellen met scripts om op grote schaal domeinen te scannen en gepersonaliseerde e-mails te sturen.

Generatieve systemen maken ook varianten van malware en prompts voor misbruik. Open modellen zoals Llama 3 en gesloten modellen zoals GPT-4o kunnen, met omzeiling van veiligheidsfilters, schadelijke output produceren. Dit vergroot de werkdruk voor SOC-teams, die meer alerts en meer misleiding moeten verwerken.

De grootste impact is snelheid en volume, niet alleen kwaliteit. Waar één aanvaller eerder dagen nodig had, kan een agent in uren honderden doelwitten benaderen. Daardoor wordt basisweerbaarheid, zoals phishing-resistente login en e-mailauthenticatie, ineens cruciaal.

Agentic AI: systemen die zelfstandig taken plannen en uitvoeren, met beperkte of geen directe menselijke sturing.

Verdediging wordt proactiever

Beveiligingsleveranciers zetten zelf AI in om mee te schalen. Microsoft Copilot for Security, Google Cloud’s Mandiant AI en CrowdStrike’s Charlotte AI helpen bij triage, correlatie en respons. Ze vertalen loggegevens naar acties en genereren playbooks die analisten kunnen aanpassen.

Die hulpmiddelen werken het best met schone data en duidelijke grenzen. Hallucinaties en foutcontext blijven risico’s, dus human-in-the-loop en auditlogs zijn nodig. Organisaties testen daarom AI-respons eerst in een sandbox en laten een analist elke stap goedkeuren.

Ook platformen automatiseren detectie en orkestratie. Palo Alto Networks Cortex XSIAM en SentinelOne Purple AI koppelen signalen uit endpoint, identiteit en netwerk. Het doel is minder ruis en snellere containment, zonder de controle van het SOC te verliezen.

Europese AI-verordening gevolgen overheid

De AI-verordening (AI Act) verplicht risicobeheer, logging en transparantie voor AI in kritieke processen, op het moment van schrijven gefaseerd ingevoerd. Voor overheden en vitale aanbieders betekent dit: documenteer modelkeuzes, dataherkomst en menselijk toezicht. Een Data Protection Impact Assessment onder de AVG blijft verplicht als persoonsgegevens worden verwerkt.

NIS2 scherpt tegelijk eisen aan voor incidentmelding, toeleveranciers en bedrijfsmiddelen. In Nederland wordt de implementatie van NIS2 op het moment van schrijven voorbereid; organisaties moeten tijdig hun risicobeheer en contracten met IT-dienstverleners aanpassen. Dit raakt direct de inkoop van AI-copilots en detectieplatformen.

Praktisch gezien vraagt dit om governance “by design”. Denk aan modelcatalogi, toegangsbeheer per use-case, en bewaartermijnen die dataminimalisatie respecteren. Voor publieke diensten is traceerbaarheid van AI-besluiten extra belangrijk, zeker bij bezwaarprocedures.

Herkomst en deepfakes controleren

Deepfakes en synthetische audio vergroten fraude en desinformatie. Banken en klantenservice zien groeiende voice-phishing, terwijl verkiezingen en publieke omroep inzet vragen om verificatie. Watermerken en herkomstlabels worden daarom standaard onderdeel van contentketens.

Techbedrijven brengen hulpmiddelen om herkomst te tonen. Google DeepMind’s SynthID en de C2PA-standaard voor contentprovenance voegen onzichtbare kenmerken toe aan beeld en audio. OpenAI en Meta testen vergelijkbare labels voor door hun modellen gemaakte media.

Controle aan de ontvangende kant blijft nodig. Overheden en mediabedrijven in Europa zetten detectietools en verificatieworkflows in voordat content live gaat. Voor burgers helpen duidelijke waarschuwingen, en voor bedrijven strengere uitbetalingsprocessen met extra verificatie.

Basis hygiëne en nieuwe skills

De grootste winst zit nog steeds in basismaatregelen. Gebruik phishing-resistente MFA met passkeys, en dwing DMARC, SPF en DKIM af voor e-mail. Beperk rechten, segmenteer netwerken en blokkeer onbekende uitvoer naar internet met egress-regels.

Voor AI-specifiek geldt: scheid modellen en data, en beheer geheimen zoals API-sleutels centraal. Log prompts, outputs en acties van agents voor forensisch onderzoek. Installeer guardrails die gevoelige taken beperken, zoals massamail of code-uitrol.

Teams hebben nieuwe vaardigheden nodig om AI veilig te benutten. Denk aan prompt-engineering voor beveiliging, red teaming van modellen en het testen van agent-workflows. Tabletop-oefeningen met generatieve scenario’s maken duidelijk waar procedures of tooling nog tekortschieten.


Over Dave

Hoi, ik ben Dave – schrijver, onderzoeker en nieuwsgierige geest achter AIInsiders.nl. Ik hou me bezig met de manier waarop technologie ons leven verandert, en vooral: hoe we dat een beetje kunnen bijbenen. Van slimme tools tot digitale trends, ik duik graag in de wereld achter de schermen.

Mijn stijl? Lekker helder, soms kritisch, altijd eerlijk. Geen onnodig jargon of overdreven hype, maar praktische inzichten waar je echt iets aan hebt. AI is niet eng of magisch – het is interessant, en ik help je graag om dat te zien.

{"email":"Email address invalid","url":"Website address invalid","required":"Required field missing"}

Misschien ook interessant

>