De AI-agent ‘Computer’ belooft andere AI-modellen voor je aan te sturen bij complexe digitale taken. De tool moet opdrachten plannen, opsplitsen en uitvoeren, zodat je minder hoeft te schakelen tussen apps en diensten. ‘Computer’ wordt online aangeboden door een startup en richt zich op algemeen gebruik. Dit kan gevolgen hebben voor organisaties in Europa door de AI-verordening en de AVG, vooral bij inzet in overheid en bedrijfsprocessen.
Agent stuurt modellen aan
‘Computer’ werkt als een regisseur bovenop bestaande algoritmen. De agent verdeelt een opdracht in stappen, kiest per stap een passend model en controleert het resultaat. Zo’n orkestratie maakt gebruik van verschillende sterktes, zoals redeneren, samenvatten of beeldherkenning.
Een AI-agent is software die zelfstandig acties kiest om een doel te halen. In dit geval stuurt de agent andere modellen en tools aan. Denk aan modellen zoals GPT-4o (OpenAI), Claude 3.5 (Anthropic), Gemini 1.5 (Google) of Llama 3.2 (Meta) voor specifieke deelfuncties.
De meerwaarde zit in taken die meerdere stappen en bronnen vragen. Voorbeelden zijn rapporten samenstellen, gegevens opschonen of afspraken plannen met meerdere partijen. Zonder agent kost dit vaak veel handwerk en contextwisselingen.
Een AI-agent is software die zelfstandig subdoelen maakt en tools aanstuurt om een taak te voltooien.
Werkt met bestaande software
‘Computer’ belooft te werken via je browser en koppelingen met apps en webdiensten. De agent kan informatie ophalen, formulieren invullen of documenten aanmaken, afhankelijk van de rechten die je geeft. In gewone taal geef je een opdracht; de agent doet de rest en rapporteert terug.
Dit lijkt op robotprocesautomatisering, maar dan aangestuurd door generatieve modellen. Robotprocesautomatisering (RPA) automatiseert herhaalwerk in software. De agent voegt hier planning en keuze van modellen aan toe, wat flexibeler kan zijn bij variatie in taken.
Betrouwbaarheid blijft een aandachtspunt bij lange ketens van acties. Fouten in één stap kunnen het hele proces verstoren. Daarom is loggen, herstellen en duidelijke tussenresultaten tonen nodig voor toezicht door de gebruiker.
Grip op privacy en AVG
Wie ‘Computer’ inzet, moet weten welke data de agent ziet en opslaat. Onder de AVG gelden dataminimalisatie en doelbinding: verwerk alleen wat nodig is en voor een duidelijk doel. Gevoelige gegevens horen versleuteld te zijn, ook in tijdelijke opslag en bij het aanroepen van externe modellen.
Inloggegevens en toegangstokens voor apps vragen extra zorg. Bewaar die gescheiden, versleuteld en met zo min mogelijk rechten. Organisaties doen er goed aan om rollen en rechten (RBAC), auditlogs en bewaartermijnen te eisen van de aanbieder.
Voor Europese bedrijven telt ook waar data heen gaat. Hosting binnen de EU en afspraken over doorgifte buiten de EER verkleinen juridische risico’s. Transparantie over datastromen en onderverwerkers is hier essentieel.
Europese AI-verordening gevolgen
De AI-verordening (AI Act) stelt op het moment van schrijven eisen aan algemene AI-systemen (GPAI) en aan hoogrisico-toepassingen. Providers van een agent zoals ‘Computer’ moeten technische documentatie, evaluaties en gebruiksinformatie leveren. Ook moeten beperkingen en bekende risico’s duidelijk zijn voor zakelijke gebruikers.
Organisaties die de agent toepassen in hoogrisico-domeinen, zoals werving, zorg of krediet, krijgen extra plichten. Denk aan risicobeheer, menselijke controle en kwaliteitsdatasets. Zonder die waarborgen kan inzet niet zijn toegestaan.
Voor overheden en publieke diensten tellen bovendien aanbestedingsregels en toegankelijkheidseisen. Heldere logica en uitlegbaarheid helpen bij verantwoording naar burgers. Dit geldt ook voor automatische besluitvorming onder de AVG, waar bezwaar en menselijk ingrijpen vereist kunnen zijn.
Beperkingen en risico’s nu
AI-agents zijn gevoelig voor foutjes, misverstanden en zogenaamde hallucinaties. Bij ketens van veel stappen kan de kans op fouten optellen. Heldere tussendoelen en eenvoudige controles helpen om dit te beperken.
Kosten zijn lastig te voorspellen als meerdere betaalde modellen worden aangeroepen. Vooraf limieten instellen en resultaten steekproefsgewijs toetsen is verstandig. Ook versies en updates van modellen kunnen gedrag veranderen zonder waarschuwing.
Beveiliging is een ander aandachtspunt. Toegang tot je scherm, bestanden of SaaS-accounts vergroot het risico bij misbruik. Afgeschermde omgevingen, principe van minimale rechten en strikte logs zijn daarom nodig.
Kansen voor Nederlandse sectoren
Voor gemeenten en uitvoeringsorganisaties kan ‘Computer’ administratieve lasten verlagen. Denk aan het samenstellen van dossiers of het ordenen van binnenkomende vragen, met menselijk toezicht. Dit sluit aan bij de roep om efficiëntere dienstverlening, maar vraagt transparantie volgens de AI Act.
In de zorg kan de agent repetitieve taken rond verslaglegging of declaraties ondersteunen. Daarbij moeten medische gegevens extra worden beschermd en alleen binnen duidelijke doelen worden gebruikt. Beperk toegang tot wat strikt nodig is en documenteer het proces.
Onderwijsinstellingen kunnen de agent inzetten voor roostering, materiaalverwerking en studieloopbaaninformatie. Richtlijnen over bronvermelding, plagiaatcontrole en menselijke beoordeling blijven cruciaal. Betrek medezeggenschap en privacy officers vroeg bij pilots.
De maker van ‘Computer’ deelt op het moment van schrijven geen uitgebreide informatie over prijs en beschikbaarheid. Voor organisaties is een proefopstelling met beperkte rechten en synthetische data een veilige start. Zo wordt snel duidelijk of de agent betrouwbaar genoeg is voor echte processen.
