Kwaadaardige LLM’s: hoe AI de drempel voor cybercrime verlaagt

  • Home
  • >
  • Blog
  • >
  • Nieuws
  • >
  • Kwaadaardige LLM’s: hoe AI de drempel voor cybercrime verlaagt

Amsterdam, 26 november 2025 15:43 

Criminelen gebruiken nieuwe chatbots om sneller aanvallen te plegen. Kwaadaardige taalmodellen zoals WormGPT en FraudGPT helpen bij phishing, malware en oplichting. Ze staan te koop op het dark web en in gesloten fora. De Europese AI-verordening en de AVG stellen eisen aan aanbieders, maar illegale systemen vallen vaak buiten bereik.

Illegale chatbots nemen toe

Op ondergrondse markten verschijnen steeds meer ā€œuncensoredā€ LLM’s, oftewel taalmodellen zonder veiligheidsfilters. Deze algoritmen geven zonder remmen tips voor hacken en fraude. Gebruikers vragen bijvoorbeeld om een overtuigende phishingmail of om schadelijke code, en krijgen dat direct.

WormGPT en FraudGPT zijn bekende voorbeelden uit deze scene. Ze zijn afgeleid van bestaande datamodellen, maar opnieuw getraind voor misbruik. Hierdoor werken ze als een digitale tutor voor cybercrime, met kant‑en‑klare scripts en voorbeelden.

Een LLM is een AI‑systeem dat tekst voorspelt op basis van grote hoeveelheden data. Normale chatbots blokkeren gevaarlijke opdrachten. Criminele varianten halen die drempel weg en leveren uitvoerbare stappen.

Aanval wordt eenvoudiger

De drempel voor cybercrime daalt, omdat beginners nu professionele hulp krijgen van een chatbot. Het model schrijft foutloze e-mails in elke taal en past toon en sector aan. Dat maakt business e‑mail compromise (BEC) en WhatsApp‑fraude makkelijker.

De systemen helpen ook bij verkenning. Ze bouwen lijsten met doelwitten, zoeken standaardwachtwoorden en leggen uit hoe je misconfiguraties herkent. Dit versnelt de voorbereiding die aanvallers vroeger handmatig deden.

Zelfs bij malwareontwikkeling bieden ze stap‑voor‑stap hulp. Ze genereren code, leggen uit hoe je antivirus ontloopt en verbergen sporen. De kwaliteit is niet altijd top, maar de hoeveelheid pogingen stijgt snel.

Beveiliging makkelijk te omzeilen

Ook reguliere chatbots kunnen misbruikt worden via ā€œjailbreaksā€. Dat is een truc om veiligheidsfilters te omzeilen met slimme opdrachtteksten. Zo krijgen gebruikers alsnog risicovol advies, zonder een crimineel model te kopen.

Open modellen zoals Llama 3 en Mistral zijn krachtig en beschikbaar voor eigen gebruik. Sommige actoren finetunen zulke modellen tot ā€œno‑guardrailā€ varianten. Die aangepaste systemen circuleren daarna in gesloten communities.

Gesloten modellen zoals ChatGPT, Claude en Gemini hebben strengere controle en logging. Toch lekken er soms prompttechnieken of voorbeeldantwoorden die te ver gaan. Providers dichten dat vaak snel, maar het blijft een kat‑en‑muisspel.

Europese AI-verordening in praktijk

De Europese AI‑verordening (AI Act) legt aanbieders van algemene AI‑systemen risicobeheer en transparantie op. Denk aan red‑teaming, documentatie en het beperken van systemische risico’s. Open‑source krijgt deels lichtere plichten, maar niet voor zeer capabele modellen.

Illegale chatbots op het dark web vallen echter buiten normale handhaving. Ze missen een verantwoordelijke aanbieder met adres in de EU. Dit creƫert een grijs gebied waar regels lastig te verzilveren zijn.

Voor organisaties in Europa blijven de AVG en NIS2 bepalend. AVG vereist dataminimalisatie en versleuteling bij verwerking van persoonsgegevens. NIS2 vraagt om betere weerbaarheid en meldplichten bij incidenten, ook als aanvallen door AI worden versterkt.

Nederland moet weerbaarheid vergroten

Nederlandse bedrijven en overheden zien meer geavanceerde phishing en BEC‑pogingen. Teksten zijn foutloos, contextueel en in perfect Nederlands. Filters en medewerkers herkennen ze daardoor minder snel.

Basismaatregelen worden belangrijker: multifactor‑authenticatie, tijdig patchen en streng rechtenbeheer. E‑mailbeveiliging via SPF, DKIM en DMARC helpt tegen spoofing. Bewustwordingstraining moet scenario’s met AI‑gegenereerde mail en voice‑fraude meenemen.

Publieke organisaties dragen extra verantwoordelijkheid bij persoonsgegevens. Logging, segmentatie en versleuteling beperken schade als het misgaat. Het is verstandig om incidentprocessen te testen met AI‑gedreven aanvalsscenario’s.

Beperkingen en verdediging

Kwaadaardige LLM’s maken fouten en ā€œhallucinerenā€ soms onjuiste stappen. De code werkt niet altijd, en gevorderde aanvallers passen die alsnog aan. Toch is de massaproductie van redelijke aanvallen het echte risico.

Verdedigers zetten AI ook in, bijvoorbeeld voor detectie van phishingpatronen en code‑analyse. Watermerken en outputfilters helpen beperkt, omdat criminelen tekst kunnen herschrijven. Monitoring van aanvalsindicatoren blijft daarom essentieel.

Samenwerking tussen CERT’s, het NCSC en sectorale teams versnelt kennisdeling. Delen van voorbeeldprompts en IOC’s verkort de reactietijd. Leveranciers van AI‑platforms moeten misbruik sneller signaleren en knooppunten afsluiten.

Een kwaadaardige LLM is een taalmodel zonder veiligheidsremmen, dat stap‑voor‑stap instructies geeft voor fraude, hacking of malware.


Over Dave

Hoi, ik ben Dave – schrijver, onderzoeker en nieuwsgierige geest achter AIInsiders.nl. Ik hou me bezig met de manier waarop technologie ons leven verandert, en vooral: hoe we dat een beetje kunnen bijbenen. Van slimme tools tot digitale trends, ik duik graag in de wereld achter de schermen.

Mijn stijl? Lekker helder, soms kritisch, altijd eerlijk. Geen onnodig jargon of overdreven hype, maar praktische inzichten waar je echt iets aan hebt. AI is niet eng of magisch – het is interessant, en ik help je graag om dat te zien.

{"email":"Email address invalid","url":"Website address invalid","required":"Required field missing"}

Misschien ook interessant

>