Valory en Olas zetten in op autonome AI-agents — wat betekent dat?

  • Home
  • >
  • Blog
  • >
  • Nieuws
  • >
  • Valory en Olas zetten in op autonome AI-agents — wat betekent dat?

Amsterdam, 8 januari 2026 17:46 

Valory en Olas zetten recent vol in op autonome AI-agents. Het web3-team bouwt een open softwarestapel en een DAO rond zulke systemen. Doel is software die zelfstandig taken uitvoert én waarde kan beheren op blockchainnetwerken. De timing is relevant in Europa, waar de AI-verordening en privacyregels de spelregels bepalen voor inzet bij overheid en bedrijven.

Olas bouwt agentennetwerk

Olas, voortgekomen uit het werk van Valory, ontwikkelt een platform voor autonome agents. Dat zijn programma’s die doelen krijgen en zelf acties plannen en uitvoeren. Het platform moet samenwerking tussen meerdere agents mogelijk maken, bijvoorbeeld voor monitoring, coördinatie of handelstaken. De inzet: minder afhankelijkheid van één centrale partij en meer transparantie in wie wat doet.

Valory werkt aan open software waarmee teams zulke agents kunnen ontwikkelen en draaien. De code is bedoeld om te hergebruiken en te combineren, zoals bouwstenen. Zo’n modulair ontwerp maakt het makkelijker om functies te wisselen of te testen. Dat verlaagt de drempel voor kleinere ontwikkelteams.

De organisaties richten zich op gebruikssituaties waarbij betrouwbaarheid en continuïteit belangrijk zijn. Denk aan data-inspectie, marktdata-aggregratie of automatische notificaties. Met meerdere agents in een dienst kan één agent uitvallen zonder dat alles stopt. Die veerkracht is een kernargument voor deze aanpak.

Een autonome agent is software die een doel krijgt en vervolgens zelfstandig informatie verzamelt, beslissingen neemt en acties uitvoert binnen afgesproken grenzen.

Crypto maakt handelen mogelijk

Een verschil met gewone AI-assistenten is dat Olas-agents crypto-transacties kunnen doen. Ze kunnen met slimme contracten werken, dat zijn programma’s op een blockchain die afspraken automatisch uitvoeren. Daardoor kunnen agents bijvoorbeeld een betaling doen, een dienst inkopen of een signaal vastleggen. De handelingen zijn achteraf te controleren op de keten.

Olas gebruikt een DAO-structuur, een digitale coöperatie op de blockchain, voor beheer en beloningen. Ontwikkelaars kunnen daarmee eigendom en inkomsten delen rond een dienst. Dat moet bouwen aan open AI-diensten financieel aantrekkelijker maken. Het verkleint ook het risico dat één partij de regels eenzijdig verandert.

Deze combinatie van AI en crypto heet vaak de agent-economie. Agents onderhandelen, wisselen data uit en rekenen met elkaar af. Voor sommige taken kan dat sneller en goedkoper zijn dan menselijk handwerk. Maar het vraagt wel duidelijke limieten, logging en noodstops bij fouten.

Open bron en controleerbaarheid

Valory en Olas kiezen nadrukkelijk voor open-source ontwikkeling. Open broncode maakt onafhankelijke audits en hergebruik mogelijk. Voor organisaties in Europa is dat handig bij aanbestedingen en beveiligingscontroles. Het past ook bij de vraag naar uitlegbare algoritmen.

Transacties die agents doen, zijn publiek controleerbaar op de blockchain. Dat helpt bij forensisch onderzoek en bij het reconstrueren van fouten. Wel geldt: wat agents van de keten af doen, blijft alleen zichtbaar met goede logging. Daarom zijn duidelijke audit-trails en versleuteling van gevoelige gegevens nodig.

De aanpak kan lock-in bij gesloten cloud-API’s verminderen. Teams kunnen zelf kiezen welke taalmodellen of dataservices ze koppelen. Zo blijft de regie over kosten, prestaties en datalokatie. Dat is relevant in sectoren met strenge regels, zoals zorg en overheid.

Europese AI-verordening gevolgen overheid

De Europese AI-verordening (AI Act) zet eisen aan aanbieders en gebruikers van AI-systemen. Wie autonome agents inzet in hoogrisicodomeinen, moet aan verplichtingen voldoen zoals risicobeoordeling, logging en menselijk toezicht. Leveranciers van algemene AI-functies moeten documentatie en veiligheidsmaatregelen bieden. Dit raakt direct aan de inrichting van Olas-diensten voor publieke taken.

Daarnaast gelden de AVG-privacyregels bij verwerking van persoonsgegevens. Dataminimalisatie en versleuteling zijn dan verplicht, net als heldere doelen voor gebruik. Autonome agents die data verzamelen, moeten dus begrensd worden in wat ze opslaan en delen. Een DPIA, een privacy-impactanalyse, kan verplicht zijn bij publieke inzet.

Als agents betalingen initiëren, spelen ook financiële regels mee. De MiCA-verordening en anti-witwasregels vragen KYC-controles bij dienstverleners rond crypto. Organisaties moeten daarom vastleggen wie verantwoordelijk is voor de agent en zijn wallet. Zonder die borging is gebruik in de publieke sector onwaarschijnlijk.

Risico’s en wat ontbreekt

Technisch blijft veiligheid de grootste uitdaging. Een agent die verkeerd geconfigureerd is, kan geld verliezen of verkeerde acties herhalen. Sandboxing, limieten op uitgaven en een kill switch zijn daarom nodig. Ook moet er duidelijke aansprakelijkheid zijn bij schade.

Veel agenten vertrouwen op grote taalmodellen voor planning en tekstbegrip. Zulke modellen kunnen hallucineren, dus onjuiste conclusies trekken. Validerende stappen en eenvoudige regelsystemen kunnen dat beperken. Toch blijft menselijk toezicht cruciaal in kritieke processen.

Verder spelen kosten en energieverbruik mee. On-chain interacties en AI-inferentie zijn niet gratis. Europese organisaties zullen Total Cost of Ownership willen zien, inclusief cloud, ketenkosten en beheer. Zonder die rekensom blijft grootschalige uitrol uit.

Nederlandse kansen en stappen

Nederlandse overheden en semipublieke instellingen testen steeds vaker AI in dienstverlening. Autonome agents kunnen nuttig zijn voor meldingen, archiefbeheer of eenvoudige inkoop. Met open bron en auditbare transacties sluiten Olas-achtige oplossingen aan bij transparantie-eisen. Wel moeten privacy en veiligheid vanaf dag één zijn ingebouwd.

Voor toepassing in het openbaar vervoer of de energiemarkt zijn strenge eisen logisch. Denk aan fallback-procedures en handmatige overname bij storingen. Ook is Europese datalokalisatie vaak gewenst, bijvoorbeeld via EU-clouds. Het open karakter van Valory’s software kan daarbij helpen.

Een realistische route is kleinschalig beginnen met lage risico’s. Start met afgebakende data, kleine budgetten en duidelijke limieten. Meet prestaties en laat externe partijen auditen. Zo kan het vertrouwen groeien en past het binnen de AI Act en de AVG.


Over Dave

Hoi, ik ben Dave – schrijver, onderzoeker en nieuwsgierige geest achter AIInsiders.nl. Ik hou me bezig met de manier waarop technologie ons leven verandert, en vooral: hoe we dat een beetje kunnen bijbenen. Van slimme tools tot digitale trends, ik duik graag in de wereld achter de schermen.

Mijn stijl? Lekker helder, soms kritisch, altijd eerlijk. Geen onnodig jargon of overdreven hype, maar praktische inzichten waar je echt iets aan hebt. AI is niet eng of magisch – het is interessant, en ik help je graag om dat te zien.

{"email":"Email address invalid","url":"Website address invalid","required":"Required field missing"}

Misschien ook interessant

>