Onderzoeksbureau Gartner waarschuwt dat zogeheten AI-browsers op dit moment te veel risico vormen voor bedrijven. Het gaat om browsers met ingebouwde generatieve functies, zoals Microsoft Edge met Copilot, Opera met Aria, Brave met Leo en Arc Search van The Browser Company. Organisaties lopen gevaar op datalekken, foutieve output en problemen met Europese regels. Daarom adviseert Gartner om inzet in bedrijfsnetwerken voorlopig te beperken en streng te beheren.
AI-browser kent hoge risicoās
Een AI-browser gebruikt een taalmodel, een systeem dat tekst begrijpt en produceert, om webpaginaās samen te vatten en taken te automatiseren. Deze functies kunnen zoeken, schrijven en invulvelden vullen. Dat versnelt werk, maar vergroot ook de kans op fouten. De controle over wat er precies naar de cloud gaat, is vaak onduidelijk.
Gevoelige informatie kan via prompts, pagina-inhoud of screenshots naar servers van de aanbieder worden gestuurd. Soms wordt die data gebruikt om modellen te verbeteren, tenzij een organisatie dat expliciet uitzet. Niet alle producten bieden daarvoor duidelijke knoppen of contractuele garanties. Voor bedrijven maakt dat naleving en audit lastiger.
Daarnaast kunnen algoritmen hallucineren: overtuigende, maar onjuiste antwoorden geven. Bij beleidsteksten, juridische documenten of offertewerk kan zoān fout directe schade veroorzaken. Zonder bronvermelding of herleidbare citaten is controle tijdrovend. Dit vergroot het operationele en reputatierisico.
Een AI-browser is een webbrowser die met behulp van taalmodellen webpaginaās samenvat, schrijft en taken uitvoert, vaak door gegevens naar de cloud te sturen.
AVG stelt strikte grenzen
De AVG eist een rechtsgrond, doelbinding en dataminimalisatie bij elke verwerking van persoonsgegevens. Als een AI-browser inhoud of gebruikersinvoer naar externe servers stuurt, is dat een verwerking. Organisaties moeten dan weten welke data wordt verstuurd, waar die wordt opgeslagen en hoe lang. Ook datadoorgifte buiten de EU valt hieronder.
Vendors hosten hun modellen vaak in de VS of op wereldwijde cloudlocaties. Het EUāVS Data Privacy Framework kan dat regelen, maar niet elk product valt er aantoonbaar onder. Zonder duidelijke verwerkersovereenkomsten en EU-databeperking is het risico op AVG-schending reĆ«el. Dat vraagt om DPIAās (gegevensbeschermingseffectbeoordelingen) en technisch afdwingen van dataminimalisatie.
De Europese AI-verordening komt daar bovenop. Aanbieders van generatieve, algemene modellen (GPAI) krijgen documentatie- en transparantieplichten. Deployers die AI gebruiken in hoog-risico processen, zoals werving of krediet, moeten extra maatregelen nemen; een browser op zich is niet hoog-risico, maar het gebruik kan dat wel maken.
Beperkingen van enterprise-modus
Leveranciers beloven vaak āenterpriseā beschermingen, zoals commerciĆ«le gegevensbeveiliging in Microsoft Copilot of strengere Chrome- en Edge-beleidspolicies. Dat vermindert het risico, maar neemt het niet weg. In de praktijk bestaan er nog hiaten in logging, datapaden en beheer van plug-ins. Ook is niet elke functie centraal uit te zetten.
Veel AI-functies leunen op externe model-APIās of integraties. Daarmee ontstaat een keten van verwerkers, elk met eigen voorwaarden en opslaglocaties. Zonder volledig inzicht in die keten blijft compliance onzeker. Contractuele garanties en technische isolatie zijn daarom nodig.
Consumentenproducten zoals Arc Search richten zich op gemak en snelheid, niet op regelgeving of audit. Ze combineren bronnen, genereren samenvattingen en openen automatisch nieuwe tabbladen. Dat is handig voor individuen, maar lastig te beheersen in een bedrijfsnetwerk. Voor zakelijke inzet ontbreekt vaak documentatie over logging, retention en EU-dataverwerking.
Aanbevolen stappen voor CIOās
Start met een tijdelijk verbod of een streng pilotprogramma met beperkte datasets. Kies slechts ƩƩn of twee beheersbare scenarioās, zoals samenvatten van publiek beschikbare webpaginaās. Meet kwaliteit en fouten systematisch en bepaal wanneer menselijke controle verplicht is. Leg de scope vast in beleid en communiceer dat helder.
Gebruik technische maatregelen: schakel AI-features uit via beheerprofielen, zet een allowlist voor extensies en blokkeer onbekende model-APIās via egress-controles. Koppel DLP en CASB om kopiĆ«ren van vertrouwelijke data naar prompts te herkennen. Scheid identiteiten en browsers voor werk en privĆ© om datalekken te beperken. Houd auditlogs centraal bij.
Regel de juridische basis met een DPIA, verwerkersovereenkomsten en datalokatie-afspraken. Eis bij leveranciers: data-eigendom blijft bij de klant, geen modeltraining op klantdata, EU-databeschikbaarheid en duidelijke retention. Train medewerkers in veilig prompten en broncontrole. Voer periodieke red teaming uit op AI-functionaliteit.
Nederlandse en EU-context
Voor Nederlandse overheden gelden de BIO-normen en, op het moment van schrijven, richtlijnen van het NCSC voor generatieve AI. De Autoriteit Persoonsgegevens raadt af om gevoelige gegevens in generatieve diensten te zetten zonder stevige waarborgen. In zorg en sociaal domein tellen bovendien NEN 7510 en sectorale geheimhoudingsplichten. AI-browsers zonder EU-datagaranties passen daar niet bij.
De Europese AI-verordening vraagt om transparantie bij AI-gebruik richting burgers. Overheidsorganisaties moeten daarom kunnen uitleggen wanneer een tekst of samenvatting door een algoritme is gemaakt. Ook privƩsectoren met consumentencontact, zoals banken en verzekeraars, krijgen hiermee te maken. Het maakt keuze voor tooling met duidelijke AI-labeling en logboeken belangrijk.
Voor bedrijven die veel met webcontent werken, zoals media en consultancy, ligt gecontroleerde inzet wel binnen bereik. Denk aan interne portalen waar AI-samenvattingen draaien op EU-gehoste modellen met strikte filters. Zo blijft data binnen de perken en is herkomst controleerbaar. Dit sluit beter aan op de AVG en de AI-verordening.
Nieuwe AI-tool werkt nog gebrekkig
Samenvatfuncties in browsers missen vaak context en bronverwijzing. Daardoor is herleidbaarheid zwak en kwaliteitscontrole duur. Bij complexe inhoud, zoals regelgeving of technische documentatie, stapelen fouten zich snel op. Dat maakt blind vertrouwen ongeschikt voor bedrijfsprocessen.
Ook de beveiliging van prompts en resultaten is nog niet uniform. Niet elke aanbieder versleutelt data end-to-end of geeft een helder overzicht van subprocessors. Zonder die basis is het lastig om auditors en toezichthouders tevreden te stellen. Dit remt adoptie in gereguleerde sectoren.
Gartner concludeert daarom dat de balans tussen voordeel en risico nog negatief uitvalt. De technologie ontwikkelt snel, maar governance loopt achter. Tot die kloof kleiner wordt, horen AI-browsers thuis in gecontroleerde pilots. Grootschalige uitrol is voor nu onverstandig.
