Criminelen gebruiken nieuwe chatbots om sneller aanvallen te plegen. Kwaadaardige taalmodellen zoals WormGPT en FraudGPT helpen bij phishing, malware en oplichting. Ze staan te koop op het dark web en in gesloten fora. De Europese AI-verordening en de AVG stellen eisen aan aanbieders, maar illegale systemen vallen vaak buiten bereik.
Illegale chatbots nemen toe
Op ondergrondse markten verschijnen steeds meer āuncensoredā LLMās, oftewel taalmodellen zonder veiligheidsfilters. Deze algoritmen geven zonder remmen tips voor hacken en fraude. Gebruikers vragen bijvoorbeeld om een overtuigende phishingmail of om schadelijke code, en krijgen dat direct.
WormGPT en FraudGPT zijn bekende voorbeelden uit deze scene. Ze zijn afgeleid van bestaande datamodellen, maar opnieuw getraind voor misbruik. Hierdoor werken ze als een digitale tutor voor cybercrime, met kantāenāklare scripts en voorbeelden.
Een LLM is een AIāsysteem dat tekst voorspelt op basis van grote hoeveelheden data. Normale chatbots blokkeren gevaarlijke opdrachten. Criminele varianten halen die drempel weg en leveren uitvoerbare stappen.
Aanval wordt eenvoudiger
De drempel voor cybercrime daalt, omdat beginners nu professionele hulp krijgen van een chatbot. Het model schrijft foutloze e-mails in elke taal en past toon en sector aan. Dat maakt business eāmail compromise (BEC) en WhatsAppāfraude makkelijker.
De systemen helpen ook bij verkenning. Ze bouwen lijsten met doelwitten, zoeken standaardwachtwoorden en leggen uit hoe je misconfiguraties herkent. Dit versnelt de voorbereiding die aanvallers vroeger handmatig deden.
Zelfs bij malwareontwikkeling bieden ze stapāvoorāstap hulp. Ze genereren code, leggen uit hoe je antivirus ontloopt en verbergen sporen. De kwaliteit is niet altijd top, maar de hoeveelheid pogingen stijgt snel.
Beveiliging makkelijk te omzeilen
Ook reguliere chatbots kunnen misbruikt worden via ājailbreaksā. Dat is een truc om veiligheidsfilters te omzeilen met slimme opdrachtteksten. Zo krijgen gebruikers alsnog risicovol advies, zonder een crimineel model te kopen.
Open modellen zoals Llama 3 en Mistral zijn krachtig en beschikbaar voor eigen gebruik. Sommige actoren finetunen zulke modellen tot ānoāguardrailā varianten. Die aangepaste systemen circuleren daarna in gesloten communities.
Gesloten modellen zoals ChatGPT, Claude en Gemini hebben strengere controle en logging. Toch lekken er soms prompttechnieken of voorbeeldantwoorden die te ver gaan. Providers dichten dat vaak snel, maar het blijft een katāenāmuisspel.
Europese AI-verordening in praktijk
De Europese AIāverordening (AI Act) legt aanbieders van algemene AIāsystemen risicobeheer en transparantie op. Denk aan redāteaming, documentatie en het beperken van systemische risicoās. Openāsource krijgt deels lichtere plichten, maar niet voor zeer capabele modellen.
Illegale chatbots op het dark web vallen echter buiten normale handhaving. Ze missen een verantwoordelijke aanbieder met adres in de EU. Dit creƫert een grijs gebied waar regels lastig te verzilveren zijn.
Voor organisaties in Europa blijven de AVG en NIS2 bepalend. AVG vereist dataminimalisatie en versleuteling bij verwerking van persoonsgegevens. NIS2 vraagt om betere weerbaarheid en meldplichten bij incidenten, ook als aanvallen door AI worden versterkt.
Nederland moet weerbaarheid vergroten
Nederlandse bedrijven en overheden zien meer geavanceerde phishing en BECāpogingen. Teksten zijn foutloos, contextueel en in perfect Nederlands. Filters en medewerkers herkennen ze daardoor minder snel.
Basismaatregelen worden belangrijker: multifactorāauthenticatie, tijdig patchen en streng rechtenbeheer. Eāmailbeveiliging via SPF, DKIM en DMARC helpt tegen spoofing. Bewustwordingstraining moet scenarioās met AIāgegenereerde mail en voiceāfraude meenemen.
Publieke organisaties dragen extra verantwoordelijkheid bij persoonsgegevens. Logging, segmentatie en versleuteling beperken schade als het misgaat. Het is verstandig om incidentprocessen te testen met AIāgedreven aanvalsscenarioās.
Beperkingen en verdediging
Kwaadaardige LLMās maken fouten en āhallucinerenā soms onjuiste stappen. De code werkt niet altijd, en gevorderde aanvallers passen die alsnog aan. Toch is de massaproductie van redelijke aanvallen het echte risico.
Verdedigers zetten AI ook in, bijvoorbeeld voor detectie van phishingpatronen en codeāanalyse. Watermerken en outputfilters helpen beperkt, omdat criminelen tekst kunnen herschrijven. Monitoring van aanvalsindicatoren blijft daarom essentieel.
Samenwerking tussen CERTās, het NCSC en sectorale teams versnelt kennisdeling. Delen van voorbeeldprompts en IOCās verkort de reactietijd. Leveranciers van AIāplatforms moeten misbruik sneller signaleren en knooppunten afsluiten.
Een kwaadaardige LLM is een taalmodel zonder veiligheidsremmen, dat stapāvoorāstap instructies geeft voor fraude, hacking of malware.
