Coherent Solutions heeft deze week een onderzoek gepubliceerd naar kunstmatige intelligentie voor fraudepreventie in het bankwezen en de financiële sector. Het rapport bespreekt welke datamodellen in de praktijk het best werken en waar instellingen op moeten letten. Het doel is om fraude sneller te vinden, kosten te verlagen en te voldoen aan regels zoals de AVG en de Europese AI-verordening. Het bedrijf richt zich met het onderzoek op beslissers bij banken en fintechs wereldwijd, inclusief Europa en Nederland.
Rapport ordent modelkeuze
Coherent Solutions beschrijft hoe verschillende algoritmen geschikt zijn voor uiteenlopende fraudeproblemen. Bij transacties op tabulaire data draait het vaak om nauwkeurigheid, snelheid en uitlegbaarheid. Het onderzoek zet daarom klassieke modellen naast moderne technieken, met aandacht voor prestaties en operationele inzet. Zo ontstaat een praktisch overzicht voor teams die nu beslissen over tooling en architectuur.
De publicatie behandelt ook de rol van trainingsdata en labelkwaliteit. Zonder betrouwbare labels is recall laag en lopen banken fraude mis. Met te agressieve drempels stijgt juist het aantal valse meldingen, wat klanten frustreert en kosten verhoogt. Het rapport benadrukt daarom een balans tussen detectie en klantimpact.
Verder wijst de studie op het belang van meetbare doelen. Metrics als precisie, recall en ROC-AUC geven richting, maar moeten per usecase worden gewogen. Voor betalingsfraude is een hoge recall vaak belangrijker dan absolute precisie. Voor kaartbetalingen kan latency zwaarder wegen dan maximale nauwkeurigheid.
Boosting domineert transactiedetectie
Voor gestructureerde transactiedata scoren gradient-boostingmodellen doorgaans sterk. XGBoost, LightGBM (Microsoft) en CatBoost worden vaak genoemd vanwege hun balans tussen performance en snelheid. Random Forest en logistieke regressie blijven nuttig als baseline of in situaties waar uitleg vereist is. Banken combineren deze modellen soms met eenvoudigere regels om businesslogica af te dwingen.
Uitlegbaarheid is cruciaal in financiële processen. Methoden als SHAP en LIME geven zicht op welke kenmerken tot een besluit leiden. Dat helpt bij modelvalidatie, audit en klantcommunicatie. In Europa is dit bovendien nuttig om te voldoen aan transparantie-eisen uit de AI-verordening en de AVG.
“Anomaliedetectie is het opsporen van ongebruikelijke patronen in transacties die kunnen wijzen op fraude.”
Bij netwerkanalyse rond geldezels en frauderingen komen grafen en relatiekenmerken in beeld. Grafmodellen of features op basis van netwerkstructuur verhogen dan vaak de detectiekans. Deze aanpak vraagt wel om zwaardere rekencapaciteit en strakke datagovernance. Banken moeten hiervoor duidelijke datastromen, rechten en bewaartermijnen inregelen.
Onbekende fraude vraagt anders
Nieuwe fraudevormen missen labels en glippen langs supervisie. Onbegeleide methoden, zoals Isolation Forest of auto-encoders, signaleren dan afwijkingen zonder voorafgaande voorbeelden. Ze werken goed als vroegtijdig waarschuwingssysteem, maar leveren meer ruis op. Een mens-in-de-lus die signalen snel beoordeelt blijft daarom nodig.
Concept drift is een blijvend risico. Fraudeurs passen snel tactieken aan, waardoor prestaties van modellen dalen. Continue monitoring en hertrainen met recente data zijn noodzakelijk. Versiebeheer en A/B-testen beperken het operationele risico bij updates.
Taalmodellen kunnen ondersteunend zijn in de keten. Ze helpen bij het clusteren van meldingen, samenvatten van dossiers en het doorzoeken van vrije tekst. In klantcontact kunnen ze waarschuwingen personaliseren tegen oplichtingsmethoden. Voor beslissingen met rechtsgevolgen is echter aanvullende controle nodig.
AI-verordening dicteert randvoorwaarden
Onder de Europese AI-verordening (AI Act) vallen veel financiële AI-toepassingen in een hoge risicoklasse. Dat betekent strenge eisen aan risicobeheer, datakwaliteit, documentatie, menselijk toezicht en nauwkeurigheid. Banken moeten kunnen uitleggen hoe een model werkt en welke data zijn gebruikt. Dit sluit aan op bestaande modelrisk‑kaders bij toezichthouders.
De AVG stelt extra grenzen bij profilering en geautomatiseerde besluitvorming. Artikel 22 geeft betrokkenen rechten als besluiten juridische of soortgelijke gevolgen hebben. In de praktijk borgen instellingen daarom een recht op bezwaar en menselijke herbeoordeling. Dataminimalisatie en versleuteling zijn standaardvereisten bij transactiedata.
Voor Nederlandse partijen spelen ook Wwft‑verplichtingen en toezicht door DNB en AFM. Hun principes voor betrouwbare AI benadrukken uitlegbaarheid, fairness en traceerbaarheid. Samenwerking zoals Transactie Monitoring Nederland (TMNL) vraagt bovendien om een stevige juridische basis en heldere datadeling. De Autoriteit Persoonsgegevens let hierbij op proportionaliteit en doelbinding.
Implementatie vraagt soberheid
De meeste winst zit niet alleen in het model, maar in data‑ en proceskwaliteit. Eenduidige klant‑ en tegenrekeningdata, goede feature‑engineering en snelle feedback op meldingen leveren vaak de grootste verbetering. Teams die dit op orde hebben, halen meer uit elk algoritme. Zonder dit fundament lopen kosten op door valse positieven en nodeloos onderzoek.
Productierijp maken vergt duidelijke rollen en controles. Functiescheiding tussen ontwikkeling, validatie en operatie verkleint modelrisico. Logging en reproduceerbaarheid zijn nodig voor audits en incidentanalyse. DORA‑eisen aan operationele weerbaarheid maken deze discipline nog belangrijker.
Keuze voor on‑premises of cloud beïnvloedt kosten en naleving. Cloud biedt schaal en moderne tooling, maar vraagt streng leveranciers‑ en datalocatiebeheer. Europese banken kijken daarom kritisch naar dataresidency en versleuteling met eigen sleutels. Contracten moeten helder zijn over support, updates en exit‑mogelijkheden.
Wat banken nu kunnen doen
Start met een portfolio‑aanpak: koppel per usecase het juiste model aan duidelijke prestatie‑ en nalevingsdoelen. Gebruik boosting of logistieke regressie voor snelle winst op tabulaire transacties. Zet anomaliedetectie in als vangnet voor nieuwe patronen en stuur op snelle menselijke triage. Documenteer alle keuzes en bouw explainability in vanaf dag één.
Richt een continu leerproces in. Verzamel feedback van analisten, retrain periodiek en meet drift zichtbaar. Houd valse positieven bij per scenario om kosten te drukken zonder detectie te verliezen. Koppel dit aan heldere KPI’s die toezichthouders begrijpen.
Betrek juridische en privacy‑experts vroeg. Toets modellen aan de AI‑verordening, AVG en nationale regels zoals de Wwft. Werk met DPIA’s, dataminimalisatie en sterke pseudonimisering waar mogelijk. Zo blijft fraudedetectie effectief én verdedigbaar richting klant en toezichthouder.
