Cybercriminelen zetten steeds vaker kunstmatige intelligentie in om cryptobedrijven en beleggers aan te vallen. Het gaat om AI-gedreven crypto-exploits die wereldwijd plaatsvinden, ook in Europa en Nederland. Op het moment van schrijven nemen snelheid en schaal van deze aanvallen zichtbaar toe. Dat komt doordat algoritmen het werk van hackers automatiseren en verfijnen.
AI versnelt aanvalscyclus
Nieuwe modellen zoals GPT-4, Google Gemini en open-source varianten als Llama 3 kunnen kwetsbaarheden in code sneller aanwijzen. Een groot taalmodel (LLM) is software die tekst begrijpt en genereert, en kan code reviewen. Aanvallers gebruiken dit om audit-achtige checks op slimme contracten te draaien. Zo gaat de verkenningsfase van dagen naar minuten.
Agent-achtige tools, zoals AutoGPT-achtige workflows, voeren taken achter elkaar uit zonder veel menselijk ingrijpen. Ze testen duizenden scenarioās in een sandbox voordat ze toeslaan. Dat maakt misbruik van kleine ontwerpfouten in DeFi-protocollen kansrijker. En het verkleint de tijd waarin verdedigers kunnen reageren.
Open modellen draaien bovendien lokaal, buiten toezicht van cloudproviders. Daardoor vallen veiligheidsfilters minder op. Criminelen combineren ze met scripts voor blockchain-analyse en mempool-monitoring. Zo plannen zij hun aanval op het exacte moment dat liquiditeit en prijsimpact gunstig zijn.
Phishing wordt hyperpersoonlijk
Generatieve systemen maken e-mails en chats die overtuigend en foutloos zijn. Spear-phishing past zich aan per slachtoffer, met details van sociale media. Deepfake-stemmen kunnen een klant of manager nadoen om haast te creƫren. Dit vergroot de kans dat iemand zijn seed phrase of privƩsleutel deelt, of een malafide transactie goedkeurt.
Phishing-kits op Telegram bieden nu AI-tekstsuggesties en realtime vertaling. Daardoor richten campagnes zich tegelijk op Nederland, Duitsland en Frankrijk. Voor bedrijven betekent dit: meer meertalige dreiging met constante variatie. Filters die op vaste woorden vertrouwen, missen zulke berichten.
De AVG verplicht organisaties tot dataminimalisatie en versleuteling als zij klantgegevens verwerken. Hyperpersoonlijke phishing misbruikt juist openbaar gemaakte data en datalekken. Minder gegevens opslaan en snel datalekken melden beperkt het risico. Ook consumenteneducatie blijft nodig, bijvoorbeeld via de Fraudehelpdesk.
Slimme contracten sneller gekraakt
Een slim contract is software op een blockchain die afspraken automatisch uitvoert. AI-modellen helpen bij fuzzing, een testmethode die onverwachte invoer probeert. Zo vinden ze re-entrancy, prijsmanipulatie of overflows in Solidity-code sneller. Vooral bij DeFi, waar veel geld in contracten vastzit, is de impact groot.
Open-source modellen zoals Code Llama genereren proof-of-concepts die direct op een testnet werken. Filters van grote aanbieders zijn te omzeilen met open varianten. Daardoor wordt exploit-code gemakkelijker hergebruikt en aangepast. Kleine verschillen in protocollen zijn geen barriĆØre meer.
Een crypto-exploit is het misbruiken van een fout of ontwerpfout in een slim contract, wallet of exchange om geld of controle te stelen.
Ook ādrainerā-diensten integreren nu AI om prompts, webkopie en lokpaginaās te variĆ«ren. Een drainer is malware die wallets leegtrekt zodra iemand een kwaadaardige handeling toestaat. Door automatisch A/B-testen stijgt de conversie van malafide websites. Dit verkort de tijd tussen ontdekking en financieel verlies.
Detectie loopt achter op automatisering
Veel securityteams leunen op handmatige code-audits en regels in SIEM-systemen. Die zijn niet gemaakt voor AI-gestuurde variatie en snelheid. Aanvallers veranderen elke run de tekst, domeinnaam en infrastructuur. Klassieke detectie mist daardoor context en ziet aanvallen te laat.
AI voor defensie bestaat, maar vraagt om rijke en schone data. Zonder goede labels levert een model vooral valse meldingen op. Web3-teams hebben daarnaast on-chain, mempool en wallet-telemetrie nodig. Die bronnen zijn versnipperd en niet altijd realtime beschikbaar.
Wallets en beurzen kunnen gedragssignalen combineren met risicoscores. Denk aan afwijkende toestemmingen (approvals), nieuwe contractinteracties en geolocatie. Een āstep-upā controle, zoals extra bevestiging of vertraging, remt verdachte transacties. Dit kost frictie, maar beperkt verlies in de eerste minuten.
Europese regels vergroten druk
De Europese AI-verordening (AI Act) introduceert risicoklassen en eisen voor modellen en aanbieders. Hoewel criminelen zich niet aan regels houden, moeten Europese organisaties hun eigen AI-gebruik documenteren. Dat geldt bijvoorbeeld voor geautomatiseerde detectiesystemen en klantinteractie. Dit heeft directe impact op overheden en bedrijven (zoekterm: Europese AI-verordening gevolgen overheid).
De MiCA-regels verplichten crypto-asset dienstverleners tot governance en incidentprocessen. In Nederland houden de AFM en De Nederlandsche Bank toezicht op naleving. Meldplichten en transparantie worden daarmee strenger. Dat verhoogt de druk om AI-gedreven aanvallen snel te detecteren en te rapporteren.
NIS2 breidt cybersecurity-eisen en boetes uit naar meer sectoren met vitale IT. Crypto-bedrijven die onder de richtlijn vallen moeten risicoās beperken en incidenten melden. De AVG blijft gelden voor klantdata in KYC en klantenservice. Samen zorgen deze kaders voor meer verantwoordelijkheid bij aanbieders.
Wat organisaties nu moeten doen
Voer een AI-specifieke dreigingsanalyse uit voor wallet, exchange en DeFi-componenten. Neem AI-gestuurde phishing en contract-exploits expliciet op in scenarioās. Test met red teaming waarbij modellen aanvallen simuleren. En beoordeel of detectie en respons die snelheid aankunnen.
Versterk sleutelbeheer met hardware security modules en beperkt gebruik van hot wallets. Implementeer limieten en time-locks voor grote transacties. Zet realtime on-chain monitoring in met duidelijke playbooks. Zorg dat teams 24/7 kunnen ingrijpen bij afwijkingen.
Laat slimme contracten onafhankelijk auditen door gespecialiseerde partijen, en automatiseer fuzzing in de CI/CD-keten. Houd permissies (approvals) van gebruikers zichtbaar en herroepbaar in de interface. Train medewerkers en klanten in het herkennen van AI-phishing en deepfakes. En documenteer AI-gebruik om te voldoen aan de AI Act en MiCA.
