Cybersecuritybedrijf Trend Micro voorspelt dat cyberaanvallen in 2026 end-to-end door kunstmatige intelligentie worden aangestuurd. Het bedrijf ziet een snelle verschuiving naar autonome systemen die verkenning, phishing en binnendringen zelf regelen. Dat raakt Nederlandse bedrijven en overheden direct, met de Europese AI-verordening gevolgen overheid en de NIS2-regels in aantocht. Organisaties moeten hun verdediging en governance nu aanpassen om die nieuwe aanvalsvorm te weerstaan.
AI maakt aanvallen schaalbaar
Kunstmatige intelligentie maakt phishing en oplichting sneller en goedkoper. Grote taalmodellen (LLMās, dat zijn algoritmen die tekst begrijpen en genereren) schrijven foutloze e-mails in elke taal. Spraaksynthese en beeldgeneratie leveren geloofwaardige nepstemmen en nepfotoās op. Daardoor stijgt het aantal overtuigende aanvallen zonder extra menskracht.
Autonome āagentenā plannen en voeren taken uit via APIās en scripts. Zoān systeem kan doelwitten vinden, kwetsbaarheden opsporen en stappen herhalen tot het binnen is. Het past de aanpak aan op basis van feedback, net als een mens. Die lus maakt de aanvalsketen schaalbaar en volhardend.
De drempel voor cybercrime daalt hierdoor. Waar criminelen eerst teams en tijd nodig hadden, volstaat nu compute, prompts en kant-en-klare tools. Dat vergroot het volume en de variatie van aanvallen. Defensie moet dus meer pogingen afslaan met dezelfde of zelfs minder middelen.
Volledige regie in 2026
Trend Micro verwacht dat AI in 2026 de volledige aanval regisseert, van verkenning tot exfiltratie. De mens stelt doelen, maar het systeem kiest zelf middelen en routes. Dat kan via ketens van modellen, scripts en bots die samenwerken. De criminele āoperatorā kijkt vooral toe en stuurt bij waar nodig.
Een AI-gestuurde aanval is een digitale inbraak waarbij een model zelfstandig doelen selecteert, stappen plant en acties uitvoert, zonder voortdurende menselijke aansturing.
Technisch wordt dit mogelijk door agent-software die tools gebruikt, code uitvoert en resultaten evalueert. Koppelingen met botnets, betaalde APIās en ācrime-as-a-serviceā vullen hiaten op. Ook generieke modellen worden steeds beter in redeneren en in het schrijven van werkende code. Zo ontstaat een end-to-end keten zonder pauzes.
Er zijn wel beperkingen. Het vinden van onbekende kwetsbaarheden blijft lastig en kostbaar. Slimme detectie kan gedragspatronen nog herkennen. Toch is de trend duidelijk: minder handwerk aan de aanvalskant, en meer druk aan de verdedigingskant.
Wat nu al werkt
Phishing en CEO-fraude krijgen een kwaliteitsboost door LLMās en stemklonen. Criminelen genereren maatwerkmail, sms en chat die aansluiten bij sectorjargon en lokale regels. Ze combineren nepvideoās en audio met echte data uit datalekken. Daardoor neemt het succes van āsocial engineeringā merkbaar toe.
Illegale of aangepaste modellen, zoals de zogeheten WormGPT, verlagen de drempel om malware en overtuigende phishingteksten te maken. Prompt-injectie, een techniek waarbij misleidende tekst een AI-assistent ongewenste acties laat doen, duikt op in helpdesks en zoekfuncties. Onbeschermde koppelingen met interne documenten vergroten het risico op datalekken. Zonder strikte beveiliging kan een assistent vertrouwelijke info prijsgeven.
Ook omzeilen aanvallers controles met AI. Systemen maken varianten van kwaadaardige code en phishingpaginaās om detectie te ontwijken. Captchaās en eenvoudige verificaties worden door modellen opgelost. Daarmee stijgt de druk op e-mailfilters, EDR en webbeveiliging.
AI-verordening: gevolgen overheid
De Europese AI-verordening (AI Act) legt plichten op aan aanbieders en gebruikers van AI, inclusief algemene modellen. Overheden en bedrijven moeten risicoās beoordelen, documentatie bijhouden en transparant zijn over AI-gebruik. Voor GPAI-leveranciers komen eisen aan technische documentatie en misbruikbeperking. Dit raakt inkoop, compliance en audits in de EU.
Crimineel gebruik valt buiten normale naleving, maar de verordening vraagt wel om maatregelen tegen misbruik. Denk aan robuustheidstests en duidelijke beperkingen in APIās. Transparantie over synthetische media en herkomst kan organisaties helpen deepfakes te herkennen. Dat verkleint de ruimte voor misleiding in publieke diensten.
NIS2 verscherpt ondertussen de zorgplicht voor essentiƫle en belangrijke entiteiten. Incidenten moeten snel gemeld worden, en bestuurders dragen meer verantwoordelijkheid. Met AI-gedreven aanvallen die sneller escaleren, telt elke minuut. In Nederland moeten organisaties op het moment van schrijven NIS2-normen vertalen naar beleid, processen en contracten.
Ook de AVG blijft leidend bij detectie en logging. Telemetrie over gebruikers en contentanalyse kan persoonsgegevens bevatten. Dat vraagt om dataminimalisatie, versleuteling en een DPIA. Veiligheid en privacy moeten hand in hand gaan.
Verdediging met mens Ʃn model
Organisaties kunnen AI inzetten voor detectie, maar met menselijk toezicht. Moderne EDR/XDR gebruikt gedragsmodellen om afwijkingen te vinden. Een LLM kan meldingen samenvatten en prioriteren, binnen strakke regels en zonder directe toegang tot gevoelige systemen. Zo blijft de analist in control.
Bescherm eigen AI-toepassingen tegen misbruik. Bouw āguardrailsā in: duidelijke instructies, outputfilters en toegangscontroles. Gebruik isolatie voor tools en data (sandboxing) en beperk wat een assistent mag uitvoeren. Test regelmatig met red teaming tegen prompt-injectie en data-exfiltratie.
Verhoog weerbaarheid tegen misleiding. Controleer betalingen met een tweede kanaal, niet alleen met e-mail of chat. Stel DMARC, DKIM en SPF streng in en monitor spoofing. Train medewerkers op deepfakes en AI-phishing met realistische simulaties.
Werk samen in sectorverband. ISACās en CSIRTās delen vroegtijdig dreigingsinformatie. In Nederland bieden NCSC en Digital Trust Center richtlijnen en waarschuwingen. Dat verkort de tijd tussen ontdekking en actie.
Actiepunten voor organisaties
Leg de basis op orde: multifactor-authenticatie, strikte rechten, segmentatie en goede back-ups. Breng kroonjuwelen in kaart en beperk toegang. Automatiseer patchmanagement waar mogelijk. Dat remt ook snelle, AI-gestuurde aanvallen af.
Veranker AI in governance. Benoem eigenaarschap, stel een beleid op voor het gebruik van modellen en datamodellen, en log welke systemen welke data verwerken. Neem AI-risicoās op in het ISMS en het NIS2-programma. Toets leveranciers op AI-controles en updatebeleid.
Verbeter detectie en reactie. Combineer signatuur- en gedragsanalyse, en koppel SOC-meldingen aan playbooks. Gebruik AI-assistenten voor triage, maar zonder directe schrijfrechten in productiesystemen. Evalueer of aanvullende deepfake-detectie en merkherkenning nodig zijn.
Bereid crisisteams voor op AI-misleiding. Oefen met scenarioās zoals een valse CEO-opdracht of gehackte chatassistent. Leg vast hoe je authenticiteit controleert bij urgente verzoeken. Zo verklein je de kans op dure fouten wanneer het telt.
