Patrick Oberhaensli, CFA, schetst deze week hoe kunstmatige intelligentie vermogensbeheer verandert. Hij pleit voor hyperpersonalisatie, scherper menselijk oordeel en strakke risicodiscipline. De boodschap is gericht aan bestuurders in Nederland en Europa, waar de AVG en de Europese AI-verordening (AI Act) de inzet van algoritmen sturen. Doel: beter, persoonlijk advies zonder privacy of toezicht te schaden.
Hyperpersonalisatie vraagt betere data
Hyperpersonalisatie betekent dat advies echt past bij het leven van de klant. Dat vraagt actuele en rijke klantprofielen, zoals doelen, risico-acceptatie en voorkeuren. Algoritmen kunnen zo niet alleen portefeuillekeuzes, maar ook contactmomenten en taalgebruik afstemmen. Dat verhoogt relevantie en vertrouwen.
Dit werkt alleen met goede datahygiëne. Onder de AVG gelden dataminimalisatie en een duidelijk doel voor elk gegeven. Instellingen moeten transparant zijn en geen gevoelige data gebruiken zonder uitdrukkelijke toestemming. Scrapen van sociale media is risicovol en vaak onrechtmatig.
Technisch helpt een groot taalmodel (LLM: een systeem dat tekst begrijpt en schrijft) om documenten samen te vatten en opties te verkennen. Veel banken testen modellen zoals GPT-4, Llama 3 en Mistral Large, vaak met retrieval-augmented generation (RAG: het model zoekt eerst in eigen bronnen). Zo blijft het advies dicht bij interne richtlijnen en klantgegevens. Dat verkleint het risico op ‘hallucinaties’ of onjuiste antwoorden.
Menselijk oordeel blijft leidend
AI geeft suggesties, maar de adviseur beslist. Complexe doelen, emotie en context passen niet altijd in een model. Daarom is een duidelijke “human-in-the-loop” nodig bij advies en portefeuillewijzigingen. Dit borgt proportionaliteit en ethiek.
MiFID II eist dat advies passend is en dat de klant de keuze kan begrijpen. Een chatbot of co-piloot moet dus uitlegbaar zijn. De AI Act vraagt bovendien om heldere informatie als een klant met een systeem praat in plaats van met een mens. Uitleg in gewone taal hoort bij goede zorgplicht.
In de praktijk werkt AI vooral als onderzoekshulp en als tweede lezer. Het systeem vat dossiers samen, controleert berekeningen en geeft scenario’s. De adviseur weegt de uitkomsten en legt keuzes vast. Dat versnelt werk, zonder het vakmanschap te vervangen.
“Vermogensbeheer vraagt om hyperpersonalisatie, beter oordeel en sterke risicodiscipline.” — Patrick Oberhaensli, CFA
Strenge risicodiscipline nodig
Risico’s zitten in data, modellen en processen. Begin met een helder risicokader: wat mag het systeem wel en niet beslissen? Stel grenzen aan productadvies, risicolimieten en datagebruik. Log alle stappen zodat controle mogelijk is.
Modelrisico vraagt om testen en toezicht. Voer onafhankelijke validatie uit, monitor prestaties en update tijdig bij “modeldrift” (het model wordt minder accuraat). Leg aannames vast en geef beknopte verklaringen bij elke aanbeveling. Dat helpt bij interne audits en klantvragen.
Operationele weerbaarheid is even belangrijk. De DORA-verordening eist testen, incidentmelding en beheer van ICT- en leveranciersrisico. Let op datalekken, prompt-injecties (kwaadwillende invoer die het model misleidt) en rechten op trainingsdata. Gebruik versleuteling, toegangsbeheer en afgeschermde omgevingen.
AI Act stuurt vermogensbeheer
De Europese AI-verordening zet strikte kaders voor financiële AI. Toepassingen voor profilering en kredietbeoordeling vallen vaak in de hoogrisico-categorie. Dat betekent eisen aan risicobeheer, data-kwaliteit, documentatie, logging en menselijk toezicht. Ook moet er een duidelijke gebruiksaanwijzing en klachtenroute zijn.
De AVG blijft de basis voor privacy. Profileringsprojecten vragen vaak om een gegevensbeschermingseffectbeoordeling (DPIA: een risicotoets op privacy). Klanten hebben recht op inzage, uitleg en menselijk ingrijpen bij geautomatiseerde besluiten. Versleuteling en dataminimalisatie zijn niet optioneel, maar verplicht.
In Nederland kijken AFM en DNB scherp mee op zorgplicht en modelgebruik. Instellingen moeten kunnen uitleggen hoe een algoritme werkt en waarom een advies passend is. Goede dossiervorming en reproduceerbare uitkomsten zijn daarbij cruciaal. Wie dit niet op orde heeft, loopt handhavingsrisico’s.
Implementatie: klein beginnen, meten
Start met laagrisico-toepassingen, zoals samenvattingen van research en een interne kennisassistent. Koppel het model via RAG aan beleid en productdocumentatie. Zo blijft de output toetsbaar en actueel. Maak vooraf een exitstrategie voor leverancierswissel.
Kies bewust tussen gesloten en open modellen. GPT-4 en Claude bieden sterke taalprestaties, terwijl Llama 3 en Mistral Large meer controle en EU-hosting kunnen geven. Let op datalokalisatie, contracten en kosten per gebruik. Test modellen op uw eigen data en taken.
Richt governance in voordat u schaalt. Maak een modelregister, definieer KPI’s voor nauwkeurigheid, bias en uitlegbaarheid, en voer periodieke “red teaming” uit. Train medewerkers in veilig en effectief prompten. Beloon het melden van fouten, zodat het systeem beter wordt.
Meet zowel klantimpact als naleving. Kijk naar klanttevredenheid, doorlooptijd en foutreductie, maar ook naar auditbevindingen. Stop of pas aan als een drempel wordt overschreden. Zo blijft innovatie in balans met toezicht en vertrouwen.
