Het Amerikaanse AI-bedrijf Anthropic ligt onder vuur nadat zijn assistent Claude onrust op aandelenmarkten veroorzaakte. De AI-tool gaf alarmerende analyses door die binnen minuten handelssystemen aanzetten tot verkopen. In korte tijd verdampten miljarden aan beurswaarde in de VS en Europa. Het incident voedt vragen over de Europese AI-verordening en de gevolgen voor overheidstoezicht en financiƫle instellingen.
Claude triggert verkoopgolven
Claude is een zogeheten large language model: een tekstsysteem dat patronen leert uit heel veel data. De assistent werd gebruikt om bedrijfsnieuws, rapporten en berichten te scannen. De output kwam terecht in tools die handelssignalen genereren. Die keten versnelde de reactie op negatieve interpretaties.
Meerdere handelsalgoritmen namen de AI-samenvattingen over zonder extra controle. Daardoor ontstond plotselinge verkoopdruk in uiteenlopende sectoren. In enkele uren tijd ging flink aan marktwaarde verloren. Grote indices in de VS en Europa bewogen fors.
Professionele partijen en particuliere platforms verwerken zulke AI-signalen vaak automatisch. Dat maakt de markt sneller, maar ook kwetsbaar voor fouten. EƩn valse of misleidende conclusie kan zo breed doorsijpelen. De gebeurtenis laat zien hoe dun de scheidslijn is tussen snelheid en stabiliteit.
Analyse was onvoldoende getoetst
AI-modellen kunnen āhallucinerenā: het systeem verzint of overdrijft details wanneer informatie onduidelijk is. Zonder menselijke controle leidt dat tot verkeerde conclusies. In dit geval werden nuanceverschillen in bedrijfsinformatie te negatief gewogen. De samenvatting werd vervolgens als feit gelezen door handelstools.
Veel financiĆ«le apps koppelen via een API direct aan modellen zoals Claude. Dat is efficiĆ«nt, maar kan controles omzeilen. Ontbrekende drempels zoals bronverificatie of een tweede modelcheck vergroten risicoās. Een fout rolt dan ongehinderd door de keten.
Een betere opzet is een āhuman-in-the-loopā. Dan bekijkt een analist de AI-output vóórdat een signaal live gaat. Ook kunnen platforms een ācooldownā instellen bij grote koerssprongen. Zo krijgen mens en markt tijd om informatie te toetsen.
Beleggers eisen transparantie
Beleggers willen weten wanneer een advies of signaal door een algoritme komt. Duidelijke labels en logboeken helpen om fouten terug te vinden. Voor Europese banken en brokers wordt dit belangrijker door de AI-verordening (AI Act). Die vraagt om documentatie, risicobeperking en uitleg over modelgrenzen.
De Nederlandse Autoriteit Financiƫle Markten (AFM) benadrukt al langer dat geautomatiseerde handel beheerst moet zijn. Bedrijven die externe AI-modellen inzetten, blijven zelf verantwoordelijk. Dat betekent: testen, monitoren en incidenten melden. Ook uitbesteding ontslaat niet van die plicht.
Voor Nederlandse beleggers is het praktisch gevolg helder. Vraag om herkomst van signalen en controleer de onderliggende bronnen. Brokers doen er goed aan AI-output als āniet-definitiefā te markeren. Dat verkleint de kans dat ƩƩn fout de hele keten aanstuurt.
Toezicht onder MiFID en AI Act
In de EU geldt MiFID II voor algoritmische handel. Die regels verplichten testen, realtime monitoring en noodstops. ESMA, de Europese markttoezichthouder, verwacht dat bedrijven ook externe modellen afdekken met controles. Dat raakt nu direct het gebruik van generatieve AI.
MiFID II vereist dat ondernemingen met algoritmische handel vooraf testen en continu monitoren, inclusief een werkende ākill switchā voor noodgevallen.
De AI-verordening voegt daar nieuwe plichten aan toe voor algemene AI-modellen (GPAI). Leveranciers zoals Anthropic moeten onder meer documentatie, evaluaties en misbruikmaatregelen leveren. Voor financiĆ«le instellingen betekent dit extra informatie om risicoās te beoordelen.
Waar kredietbeoordeling in de AI Act als hoog-risico geldt, vallen marktanalysemodellen daar niet automatisch onder. Toch kunnen ze systeemrisico veroorzaken als ze massaal worden gebruikt. Daarom sturen toezichthouders aan op transparantie en audittrajecten. Dat maakt herkomst en betrouwbaarheid beter toetsbaar.
Veiligheidslagen schieten nu tekort
De huidige praktijk vertrouwt vaak op disclaimers. āGeen financieel adviesā is echter geen technische barriĆØre. Nodig zijn inhoudsfilters voor financiĆ«le claims, bronverificatie en detectie van tegenstrijdigheden. Ook helpt het om sentiment te dempen bij onzekere input.
Een tweede model kan werken als controlelaag. Het toetst of conclusies logisch uit de bron volgen. Afwijkende uitkomsten gaan dan in quarantaine voor menselijke review. Zo wordt de kans op foute massale signalen kleiner.
Loggen is essentieel voor terugkijken en leren. Bedrijven moeten prompts, versies en gebruikte databronnen vastleggen. Dat ondersteunt zowel AVG-verplichtingen als interne audits. En het versnelt herstel bij incidenten.
Impact voor Nederland en Europa
Europese beurzen, inclusief de AEX, voelen de schokken van zulke AI-ketens. Nederlandse brokers en pensioenbeheerders integreren steeds vaker datamodellen in hun workflows. Zij moeten rekening houden met de Europese AI-verordening gevolgen overheid en toezicht. Dat vraagt investeringen in governance en techniek.
De AVG blijft van kracht waar persoonsgegevens worden verwerkt. Dat vereist dataminimalisatie en versleuteling, ook in prompt- en logdata. Wanneer externe AI-diensten worden gebruikt, horen duidelijke verwerkersafspraken daarbij. Dat beperkt juridische en operationele risicoās.
Voor Anthropic en andere AI-leveranciers ligt de lat hoger. Betere documentatie, robuuste evaluaties en misbruikpreventie worden de norm. Voor financiƫle instellingen is de les even duidelijk. Vertrouw niet blind op AI-output, en bouw remmen in voordat signalen de markt bereiken.
