Beleggingsstrateeg Hugh Briscoe waarschuwt dat de oorlogsdreiging rond Iran en de snelle inzet van kunstmatige intelligentie nieuwe risico’s voor beleggers creëert. De combinatie van algoritmische handel, cyberaanvallen en online desinformatie kan markten extra beweeglijk maken. Europese regels zoals de AI‑verordening en de cyberwet DORA zetten tegelijk zwaardere eisen aan datamodellen en IT‑risico’s. Nederlandse en Europese beleggers moeten hun processen en portefeuilles daarop aanpassen.
AI vergroot marktschokken
Geautomatiseerde handel (algoritmische handel) reageert in milliseconden op nieuws en prijsprikkels. Bij geopolitieke escalatie kan dit koersbewegingen versterken, zeker in energie, defensie en luchtvaart. Kleine, foutieve signalen uit nieuwsfeeds of sociale media kunnen dan een kettingreactie aan orders uitlokken.
Europese regels onder MiFID II en MiFIR verplichten handelshuizen tot controles, zoals vooraf testen, “kill switches” en limieten per algoritme. Toch blijft het risico dat modellen dezelfde signalen volgen en liquiditeit plots verdwijnt. Briscoe ziet daarom een grotere kans op korte, felle prijsschokken rond Iran‑gerelateerd nieuws.
Voor Nederlandse beleggers betekent dit: scenario’s doorrekenen, liquiditeitsbuffers plannen en orders spreiden. Ook helpt het om nieuwsbronnen te wegen op betrouwbaarheid en tijdsvertragingen in te bouwen in automatische beslisregels. Zo worden modellen minder vatbaar voor ruis.
Desinformatie drijft onzekerheid op
Generatieve systemen zoals GPT‑4 van OpenAI en Llama van Meta maken razendsnel teksten, beelden en video. Daarmee groeit het risico op geloofwaardige nepberichten en “deepfakes” over aanvallen, sancties of olie‑aanvoer. Zulke berichten verspreiden zich via X en Telegram vaak sneller dan verificatie mogelijk is.
De Europese Market Abuse Regulation (MAR) verbiedt manipulatie, ook via valse of misleidende informatie. Toch blijft de praktijk weerbarstig als bots miljoenen berichten aanjagen. Voor beleggers is een eigen verificatieproces nodig, met vertrouwde bronnen en forensische checks op beeld en audio.
Dat vraagt om tooling die inhoud verifieert, bijvoorbeeld AI‑detectors en omgekeerd zoeken naar beelden. Tegelijk is menselijk toezicht cruciaal om context te duiden en vals‑positieven te vermijden. Bedrijven doen er goed aan interne richtlijnen te hebben voor het delen van onbevestigd nieuws.
Generatieve AI is software die op basis van voorbeelden zelf nieuwe tekst, beeld, audio of code kan maken.
Cyberrisico’s voor Europese bedrijven
Escalatie rond Iran verhoogt de kans op cyberaanvallen op Europese energie, logistiek en financiële diensten. Aanvallen kunnen toeleveringsketens verstoren of vertrouwelijke data lekken, met direct effect op waarderingen. AI‑gestuurde aanvallen worden bovendien steeds moeilijker te herkennen.
De EU‑regels NIS2 en DORA verzwaren de plichten rond cyberweerbaarheid en incidentmelding. DORA geldt voor financiële instellingen en hun IT‑leveranciers en schrijft testen, logging en herstelplannen voor op het moment van schrijven vanaf 2025. Dit raakt ook Nederlandse banken, pensioenfondsen en vermogensbeheerders die AI inzetten voor handel en risicobeheer.
Organisaties gebruiken steeds vaker AI‑beveiligingstools van grote cloudleveranciers, zoals Microsoft en Google. Dat helpt detectie, maar vergroot concentratierisico’s als meerdere kritieke processen bij één aanbieder liggen. Contractuele exit‑plannen en dataversleuteling blijven daarom essentieel.
EU-regels temmen datamodellen
De Europese AI‑verordening (AI Act) zet strenge eisen aan hoogrisicosystemen, zoals modellen voor kredietbeoordeling en personeelsselectie. Vermogensbeheerders die AI toepassen in klantprofilering of productadvies vallen mogelijk onder die regels. Dat betekent documentatie, menselijk toezicht, robuustheidstesten en duidelijke uitleg aan klanten.
Voor zogeheten foundation models met groot bereik, zoals GPT‑4, komen transparantie‑eisen en risicobeperking. Leveranciers moeten onder meer herkomst van data en technische beperkingen toelichten. Beleggers moeten dus nagaan of hun leveranciers aan de AI Act voldoen.
Daarnaast blijft de AVG leidend bij gebruik van persoonsgegevens. Dataminimalisatie, doelbinding en beveiliging zijn verplicht, ook bij het trainen van interne modellen. Overtredingen kunnen leiden tot boetes en reputatieschade die direct in waarderingen doorwerken.
Sancties raken AI‑toelevering
De EU kent exportbeperkingen voor dual‑use technologie en sancties tegen Iraanse entiteiten. Dit raakt componenten voor drones, chips en gevoelige software. Leveranciers en afnemers in Europa moeten aantonen dat er geen verboden eindgebruik is.
Voor Nederlandse en Europese techbedrijven, inclusief chiptoeleveranciers, betekent dit striktere due diligence. Cloudplatforms en AI‑API‑aanbieders moeten klantherkenning aanscherpen om misbruik te voorkomen. Niet‑naleving kan leiden tot leveringsstop, boetes en omzetverlies.
Beleggers doen er goed aan ketenafhankelijkheden in kaart te brengen, van datacenters tot halfgeleiders. Ook servicecontracten met waarborgen tegen doorverkoop en ongeautoriseerd gebruik zijn belangrijk. Zo worden schokken in de aanbodketen eerder zichtbaar.
Actiepunten voor beleggers
Briscoe adviseert risicospreiding en stresstesten met scenario’s rond olieprijs, scheepvaartroutes en cyberincidenten. Tegelijk helpt een check op “AI‑blootstelling” in de portefeuille: welke bedrijven zijn afhankelijk van generatieve systemen of cloud? Dit maakt duidelijk waar operationele en reputatierisico’s liggen.
In governance is meer aandacht nodig voor modelrisico’s en data‑kwaliteit. Stel een escalatieproces in voor twijfelachtige signalen uit nieuws‑ en socialemediastromen. Leg vast wanneer algoritmen pauzeren en wanneer een mens beslist.
Tot slot: vraag leveranciers om nalevingsbewijzen voor AI Act, AVG, NIS2 en DORA. Transparantie over trainingsdata, evaluaties en incidentlogs verkleint juridische en operationele risico’s. Dit helpt om ook in een gespannen geopolitieke context stabiel te blijven beleggen.
