Onderzoek: AI is al belangrijkste kanaal voor datadiefstal in bedrijven

  • Home
  • >
  • Blog
  • >
  • Nieuws
  • >
  • Onderzoek: AI is al belangrijkste kanaal voor datadiefstal in bedrijven

Amsterdam, 7 oktober 2025 16:11 

Amsterdam, 7 oktober 2025 — Nieuw onderzoek waarover The Hacker News bericht laat zien dat AI inmiddels het nummer één kanaal is voor data exfiltration in de enterprise.

Volgens de studie sturen medewerkers vaker gevoelige informatie naar generatieve AI-diensten dan via klassieke wegen, wat de urgentie rond AI-beveiliging, DLP en AVG‑compliance onderstreept.

Voor Nederlandse en Europese organisaties dreigt daarmee een mix van juridische, operationele en reputatierisico’s.

AI voert datalekkanalen in bedrijven aan

Het onderzoek concludeert dat generatieve AI-tools de belangrijkste route zijn geworden voor het lekken of weglekken van bedrijfsdata. Waar e-mail, cloudopslag en messaging traditioneel de grootste risico’s vormden, schuift AI nu naar de top omdat interactie laagdrempelig is en productiviteitstools overal beschikbaar zijn. The Hacker News benadrukt dat de adoptie van AI in de werkplek sneller toeneemt dan de uitrol van afdoende beveiligingsmaatregelen.

Voor Europese organisaties is dit extra relevant omdat veel AI-diensten buiten de EU worden gehost. Dat brengt datadoorgifte, logging en modeltraining onder het bereik van de AVG en de EU‑US Data Privacy Framework‑regels. Zonder duidelijke contractuele afspraken (zoals verwerkersovereenkomsten en SCC’s) kan elk prompt of geüploade bijlage een compliance‑probleem worden.

In Nederland werken veel bedrijven met Microsoft 365, Google Workspace en tal van AI‑assistenten, vaak geïntegreerd in bestaande werkstromen. Daardoor is zichtbaarheid op wat medewerkers precies met AI delen beperkt, zeker als ze privéaccounts of nieuwe browser‑extensions gebruiken. Dit maakt klassieke DLP‑controles minder effectief en vergroot het risico op onbedoelde data exfiltration.

Hoe exfiltratie via AI werkt

Data exfiltration via AI ontstaat wanneer medewerkers vertrouwelijke gegevens in prompts plakken of documenten uploaden om snelle resultaten te krijgen. Denk aan broncode voor foutanalyse, klantlijsten voor samenvattingen of medische/financiële dossiers voor tekstgeneratie. Zonder beleidskaders en technische grenzen belanden die gegevens in diensten die logs bewaren, outputs delen of zelfs bijdragen aan modeltraining.

Data exfiltration via AI betekent dat gevoelige informatie een organisatie verlaat door gebruikersinteractie met generatieve modellen (prompts, uploads, context‑vensters). De risico’s zitten in opslag van promptlogs, derde‑landverwerking, hergebruik voor modeltraining en onbedoelde herpublicatie in gegenereerde antwoorden.

Een tweede factor is de brede integratie van AI in ontwikkel- en kantoorsoftware. Plugins, connectors en RAG‑functies (retrieval augmented generation) halen context uit interne bronnen en combineren die met externe modellen. Zonder fijnmazige toegangs- en classificatieregels kan zo’n keten onbewust vertrouwelijke data naar buiten sturen.

Impact op AVG, NIS2 en DORA

Onder de AVG kunnen onrechtmatige doorgifte of onvoldoende beveiliging leiden tot boetes tot 20 miljoen euro of 4% van de wereldwijde jaaromzet (welke hoger is). De Autoriteit Persoonsgegevens (op het moment van schrijven de bevoegde privacytoezichthouder in Nederland) kijkt daarbij naar noodzaak, proportionaliteit, DPIA’s en contractuele waarborgen. Belangrijk is dat organisaties kunnen aantonen welke AI‑diensten gebruikt worden en hoe risico’s zijn gemitigeerd.

NIS2 scherpt voor vitale en belangrijke sectoren de plichten rond risicobeheer, incidentmelding en toeleveringsketen‑security aan. Data‑uitstroom via AI‑tools valt daar onder, zeker als operationele processen of klanten geraakt worden. Voor financiële instellingen komt daar DORA bij, die vraagt om robuuste ICT‑risicobeheersing en testbare weerbaarheid, inclusief third‑party AI‑diensten.

Europese soevereiniteitsambities en de AI Act versterken de trend naar duidelijke datakaders: minimale data, expliciete doelen en sterke governance. Voor AI‑gebruik betekent dit: heldere dataclassificatie, bewaartermijnen, uitsluiting van trainingsdoeleinden en voorkeur voor EU‑gehoste of enterprise‑varianten met contractueel afdwingbare garanties. Transparantie‑eisen nemen toe, net als de noodzaak om prompts, outputs en auditlogs te registreren.

Aanbevelingen: van beleid tot tooling

Een effectieve reactie combineert beleid, techniek en training. Begin met een AI‑gebruikersbeleid dat definieert welke gegevens nooit gedeeld mogen worden, welke diensten zijn toegestaan en hoe logging en bewaartermijnen geregeld zijn. Koppel dit aan verplichte dataclassificatie en awareness‑programma’s die concrete werkvloedgevallen adresseren (code, klantdata, IP).

  • Implementeer AI‑bewuste DLP/CASB of SSE: herken PII, broncode en vertrouwelijke labels in prompts/uploads; blokkeer of redigeer automatisch.
  • Gebruik enterprise‑versies van AI‑tools met no‑training‑garanties, EU‑dataverwerking en gedetailleerde auditlogs; leg dit vast in verwerkersovereenkomsten/SCC’s.
  • Beperk schaduw‑AI via allowlists, context‑aware proxy’s en browser‑extensies met data‑sanitization; monitor uitgaande AI‑verzoeken continu.

Technisch loont het om context lokaal te houden: toepas retrieval op interne vectorstores, laat gevoelige segmenten hash‑en of tokenizen en stuur alleen strikt noodzakelijke, geanonimiseerde fragmenten naar externe modellen. Evalueer opties voor EU‑gehoste modellen of on‑prem LLM’s bij hoge gevoeligheid. Test tenslotte prompts en beschermingsregels doorlopend met red‑teamscenarios om datalekpaden vroeg te vinden.

Referentie: thehackernews.com


Over Dave

Hoi, ik ben Dave – schrijver, onderzoeker en nieuwsgierige geest achter AIInsiders.nl. Ik hou me bezig met de manier waarop technologie ons leven verandert, en vooral: hoe we dat een beetje kunnen bijbenen. Van slimme tools tot digitale trends, ik duik graag in de wereld achter de schermen.

Mijn stijl? Lekker helder, soms kritisch, altijd eerlijk. Geen onnodig jargon of overdreven hype, maar praktische inzichten waar je echt iets aan hebt. AI is niet eng of magisch – het is interessant, en ik help je graag om dat te zien.

{"email":"Email address invalid","url":"Website address invalid","required":"Required field missing"}

Misschien ook interessant

>