IT-onderzoeksbureau Gartner raadt organisaties aan om AI-browsers voorlopig te mijden. Het advies is recent gegeven en geldt wereldwijd, ook voor Nederland en de EU. Reden is een groter risico op datalekken, misbruik en onduidelijke data-afhandeling. Dit raakt direct aan de AVG en de Europese AI-verordening (AI Act), met gevolgen voor overheid en bedrijfsleven.
AI-browsers vergroten risico
AI-browsers combineren surfen met generatieve kunstmatige intelligentie. Voorbeelden zijn Opera met Aria, Microsoft Edge met Copilot, Brave met Leo en Arc Max van The Browser Company. Ze kunnen paginaās samenvatten, formulieren invullen en acties uitvoeren op basis van tekstopdrachten.
Die functies vragen brede toegang tot inhoud op het scherm en vaak tot online modellen zoals GPT-4o, Claude 3 en Llama 3. Daardoor kan gevoelige informatie ongemerkt naar externe servers gaan. Het vergroot het aanvalsoppervlak en maakt controle lastiger voor IT-beheer.
Gartner waarschuwt dat deze mix van leesrechten, plug-ins en cloudmodellen extra kwetsbaarheden introduceert. Onbetrouwbare websites kunnen de AI-functie sturen en informatie aftappen. Dit risico groeit juist omdat medewerkers deze tools gebruiken binnen de normale browserstroom.
Onduidelijke datastromen en AVG
Bij AI-browsers is vaak onduidelijk welke gegevens worden verzameld en hoe lang die worden bewaard. Het kan gaan om prompts, stukjes webpagina, schermafbeeldingen en telemetrie. Dat is problematisch onder de AVG, die dataminimalisatie en transparantie vereist.
Veel aanbieders verwerken data buiten de EU of met onderaannemers. Organisaties moeten daarom een verwerkersovereenkomst regelen, internationale doorgiften toetsen en een DPIA uitvoeren. Zonder heldere afspraken is het lastig om rechten van betrokkenen te waarborgen.
Voor publieke instellingen en zorgaanbieders is dit extra gevoelig. Zij werken met bijzondere persoonsgegevens en strenge bewaartermijnen. Een AI-browser die data naar een modelprovider stuurt, kan dan simpelweg niet voldoen aan de AVG-eisen.
Schaduw-IT door slimme functies
AI-functies komen vaak als knop in de adresbalk of als zijpaneel mee met een update. Medewerkers zetten ze aan zonder dat IT dat merkt. Zo ontstaat schaduw-IT, met risico op dataverlies en complianceproblemen.
Beveiligingsmaatregelen zoals DLP en CASB zien niet altijd wat een AI-paneel verstuurt. Verkeer gaat soms via eigen endpoints van de leverancier. Daarmee vallen logs en controles deels weg.
Beheerde browsers zoals Chrome Enterprise en Edge for Business bieden beleidsinstellingen om AI-functies uit te zetten. Organisaties kunnen extensies beperken en copy-paste naar externe diensten blokkeren. Ook helpt het om ƩƩn goedgekeurde assistent aan te bieden, met duidelijke afspraken over data-gebruik.
Nieuwe aanvalstechnieken ontstaan
Prompt-injection is een groeiend gevaar. Een webpagina kan verborgen instructies meegeven die de AI laten handelen tegen het belang van de gebruiker. Denk aan het delen van interne tekst of het klikken op misleidende knoppen.
Daarnaast zijn er risicoās in de keten van extensies en AI-plug-ins. Deze vragen vaak brede rechten, zoals het lezen van alle websites. Een overname of update kan dan snel leiden tot misbruik.
AI-agenten die automatisch stappen uitvoeren, vergroten de impact van fouten of aanvallen. Een foute instructie kan direct tot een transactie of wijziging leiden. Dat vraagt strengere sandboxing en duidelijke grenzen aan wat een agent mag doen.
Een AI-browser is een webbrowser met een ingebouwd generatief AI-systeem dat paginaās leest, samenvat en taken uitvoert op basis van tekstopdrachten.
Europese regels sturen gebruik
De Europese AI-verordening brengt plichten voor aanbieders van algemene AI-modellen en voor gebruikers in organisaties. Transparantie en technische documentatie worden belangrijker bij inkoop. Wie AI inzet richting burgers moet duidelijk maken dat een systeem de interactie ondersteunt.
De AVG blijft leidend voor alle persoonsgegevens die via AI-functies worden verwerkt. Dataminimalisatie, versleuteling en heldere bewaartermijnen zijn noodzakelijk. Telemetrie die inhoud meeneemt, geldt ook als persoonsgegevens en moet worden beperkt.
In Nederland verwacht de Autoriteit Persoonsgegevens een DPIA bij nieuwe, risicovolle technologie. Het Nationaal Cyber Security Centrum adviseert om generatieve AI gecontroleerd te testen en te isoleren. Overheden en scholen moeten dit betrekken bij aanbestedingen en netwerkbeleid.
Praktische stappen voor organisaties
Begin met een inventarisatie: welke browsers en AI-functies zijn actief, en met welke endpoints praten ze. Zet standaard AI-panelen uit en beperk extensierechten. Geef medewerkers ƩƩn duidelijk kader met wat wel en niet mag met AI.
Voer een DPIA uit en stel aanvullende beheersmaatregelen in, zoals egress filtering, sandboxing en content-isolatie. Overweeg lokale of on-device modellen voor laagrisico-taken, maar bewaak toegang tot gevoelige data. Log gebruik zonder onnodige inhoud op te slaan.
Leg afspraken vast met leveranciers zoals Microsoft, Opera, Brave en The Browser Company. Eis EU-dataverwerking waar mogelijk, korte bewaartermijnen en āniet-trainen-op-jouw-dataā. Herzie beleid regelmatig, want functies en risicoās veranderen snel.
