Microsoft opent Foundry Agent Service voor xAI, Anthropic en DeepSeek

  • Home
  • >
  • Blog
  • >
  • Nieuws
  • >
  • Microsoft opent Foundry Agent Service voor xAI, Anthropic en DeepSeek

Amsterdam, 23 november 2025 09:35 

Microsoft opent de Azure AI Foundry Agent Service voor modellen van xAI, Anthropic en DeepSeek. Bedrijven en overheden kunnen per direct AI-agenten bouwen met meer keuze aan datamodellen in Azure. Dit is relevant voor de Europese AI-verordening en de gevolgen voor overheid en zorg. Het doel is minder afhankelijkheid van ƩƩn leverancier en sneller inzetbare kunstmatige intelligentie.

Meer keuze aan modellen

De uitbreiding betekent dat organisaties naast modellen van OpenAI, Meta en Mistral ook systemen van xAI, Anthropic en DeepSeek kunnen gebruiken. xAI levert Grok-modellen, Anthropic biedt Claude, en DeepSeek heeft recente redeneermodellen. Meer keuze helpt bij het afwegen van prestaties, kosten en risico’s. Het vermindert ook de kans op afhankelijkheid van ƩƩn algoritme of leverancier.

De Agent Service werkt als een orkestlaag bovenop verschillende modellen. Ontwikkelaars kunnen per taak het best passende model kiezen. Dit heet modelselectie en maakt het mogelijk om bijvoorbeeld een snel model te gebruiken voor chat en een nauwkeurig model voor analyse. Zo blijft de architectuur flexibel en beheersbaar.

Voor Nederlandse organisaties kan dit de inkoop en compliance vereenvoudigen. EƩn Azure-contract en identiteitslaag volstaan voor meerdere modelaanbieders. Wel blijft het belangrijk te checken waar inferentie draait en waar gegevens worden verwerkt. Dat is essentieel voor AVG en sectorregels.

Agenten bouwen en beheren

De Agent Service biedt bouwstenen als geheugen, tool-use en workflowsturing. Een AI-agent is software die zelfstandig stappen zet om een doel te halen, bijvoorbeeld een document zoeken, een API aanroepen en een antwoord opstellen. Ontwikkelaars kunnen tools koppelen, zoals databanken of CRM-systemen. Evaluaties en logging helpen bij kwaliteit en foutopsporing.

Voor bedrijfsgebruik zijn functies als rolgebaseerde toegang, versleuteling en auditlogs belangrijk. Data worden tijdens transport en opslag versleuteld. Beheerders kunnen veiligheidsfilters instellen om ongewenste uitkomsten te beperken. Dit past bij interne richtlijnen en externe wetgeving.

De dienst ondersteunt ook integraties met bestaande DevOps-processen. Teams kunnen versies van agenten testen en gecontroleerd uitrollen. Zo blijft het mogelijk om snel te itereren zonder controle te verliezen. Dat verkleint operationele risico’s.

Een AI-agent is een systeem dat zelfstandig acties plant en uitvoert met modellen, tools en data, binnen door mensen ingestelde grenzen.

Europese AI-verordening in praktijk

De Europese AI-verordening (AI Act) vraagt om risicobeoordeling, documentatie en menselijke controle. De Agent Service kan daarbij helpen met evaluaties, veiligheidsinstellingen en logs. Toch blijft de organisatie verantwoordelijk voor de toepassing en het risiconiveau. Denk aan HR, krediet, onderwijs of medische triage, die vaak als hoog risico gelden.

Voor de AVG zijn dataminimalisatie en doelbinding verplicht. Gebruik alleen de gegevens die nodig zijn en leg het doel vast. Controleer of prompts en uitkomsten het platform verlaten en bij welke partij die data terechtkomen. Dit is extra belangrijk nu meerdere aanbieders via ƩƩn dienst bereikbaar zijn.

Publieke sector en zorginstellingen in Nederland moeten bovendien letten op gegevenslocatie en doorgifte. Als verkeer naar een extern model buiten de EU gaat, is een passende grondslag nodig. Verwerkersovereenkomsten en standaardcontractbepalingen horen op orde te zijn. Ook DPIA’s zijn vaak verplicht voor deze toepassingen.

Effect op Nederlandse organisaties

Meer modelkeuze kan de kwaliteit van digitale loketten, klantenservice en documentanalyse verhogen. Overheden kunnen bijvoorbeeld een agent inzetten die wetsteksten samenvat en beleidstoetsen ondersteunt. Bedrijven kunnen agents gebruiken voor support, prijsanalyses of rapportage. De inzet moet wel uitlegbaar en controleerbaar blijven.

Er zijn ook risico’s, zoals modeldrift en inconsistent gedrag tussen leveranciers. Prestaties en kosten kunnen per taak en model sterk verschillen. Daarom is doorlopende evaluatie nodig, met heldere KPI’s. Dat voorkomt verrassingen in productie.

Leveranciersdiversiteit verkleint lock-in, maar vergroot de integratiecomplexiteit. Governance over meerdere modellen is dan cruciaal. Denk aan ƩƩn catalogus van goedgekeurde prompts, datasets en tools. Zo blijft het landschap beheersbaar voor security en compliance.

Data, veiligheid en eigendom

Op het moment van schrijven stelt Microsoft dat klantgegevens in zakelijke AI-diensten standaard worden beschermd en niet voor training worden gebruikt, tenzij organisaties dat expliciet aanzetten. Bij toegang tot externe modellen kunnen eigen voorwaarden gelden. Controleer daarom altijd de data-afspraken per aanbieder. Dit voorkomt verrassingen rond eigendom en hergebruik.

Technisch is netwerkafscherming en sleutelbeheer aan te raden. Gebruik private verbindingen waar mogelijk en beperk uitgaand verkeer. Dat verkleint het risico op datalekken. Logging helpt bij incidentonderzoek en naleving.

Voor gevoelige gegevens is synthetic data of anonimisering een alternatief. Zo kan men functionaliteit testen zonder echte persoonsgegevens. In productie horen toegangsrechten en monitoring streng te zijn. Dit sluit aan bij AVG-principes en sectorale normen.

Beschikbaarheid en kosten

De Agent Service is beschikbaar via Azure AI Foundry in verschillende regio’s, inclusief Europa. Ondersteuning voor xAI, Anthropic en DeepSeek kan per regio of model verschillen. Organisaties moeten daarom de regionale catalogus en SLA’s controleren. Beschikbaarheid kan later worden uitgebreid.

Kosten bestaan uit verbruik van het gekozen model en de orkestratie-onderdelen. Prijzen variƫren per aanbieder en tokenverbruik. Een kostenplafond en alerts zijn verstandig bij pilots. Dat maakt uitgaven voorspelbaar.

Voor Nederlandse instellingen met strikte aanbestedingen kan ƩƩn platform met meerdere modelkeuzes aantrekkelijk zijn. Het vereenvoudigt inkoop en beheer. Toch blijft een technische en juridische due diligence nodig. Zo blijft innovatie in balans met veiligheid en wetgeving.


Over Dave

Hoi, ik ben Dave – schrijver, onderzoeker en nieuwsgierige geest achter AIInsiders.nl. Ik hou me bezig met de manier waarop technologie ons leven verandert, en vooral: hoe we dat een beetje kunnen bijbenen. Van slimme tools tot digitale trends, ik duik graag in de wereld achter de schermen.

Mijn stijl? Lekker helder, soms kritisch, altijd eerlijk. Geen onnodig jargon of overdreven hype, maar praktische inzichten waar je echt iets aan hebt. AI is niet eng of magisch – het is interessant, en ik help je graag om dat te zien.

{"email":"Email address invalid","url":"Website address invalid","required":"Required field missing"}

Misschien ook interessant

>