Het Nederlandse verzekeringsconcern Achmea wil kunstmatige intelligentie breed inzetten in zijn organisatie. Het bedrijf verwacht dat dit op termijn tot verlies van banen leidt. De stap moet processen sneller en goedkoper maken, vooral in klantcontact en backoffice. De Europese AI-verordening en de AVG, en hun gevolgen voor overheid en financiële sector, bepalen op het moment van schrijven de ruimte voor deze inzet.
Achmea kiest voor brede inzet
Achmea ziet algoritmen als middel om efficiëntie en kwaliteit te verhogen. Het bedrijf wil systemen in meerdere afdelingen gebruiken, van ondersteunende taken tot direct klantcontact. Op het moment van schrijven zijn er geen namen van specifieke AI-tools of modellen openbaar gedeeld. De richting is duidelijk: meer automatisering in dagelijkse processen.
Kunstmatige intelligentie is software die leert van data en daarna zelfstandig taken uitvoert, zoals samenvatten, herkennen of voorspellen. In verzekeringen helpt dit vaak bij documentverwerking, triage van aanvragen en het opsporen van fouten. Zulke functies kunnen doorlooptijden verkorten en medewerkers ontlasten. Zo ontstaat tijd voor complexer werk.
Implementatie vraagt om veilige data-ontsluiting en goede governance. Bedrijven bouwen daarom vaak een interne “AI-werkplek” met richtlijnen, toezicht en testomgevingen. Dat verkleint risico’s op fouten en misbruik. Achmea zal snelheid moeten afwegen tegen zorgvuldigheid en naleving van regels.
Verwacht verlies van functies
Met de brede inzet van systemen verwacht Achmea dat sommige functies verdwijnen. Vooral routinetaken in administratie en klantenservice komen in beeld voor automatisering. Tegelijk ontstaan nieuwe rollen rond datakwaliteit, modelbeheer en compliance. De werkvloer verandert dus, niet alleen in omvang maar ook in inhoud.
Nederlandse arbeidsregels vragen om zorgvuldige besluitvorming. De Wet op de ondernemingsraden verplicht advies bij ingrijpende reorganisaties. Vaak komt er een sociaal plan met afspraken over begeleiding en vertrek. Dat moet onzekerheid voor medewerkers beperken.
Omscholing is een kans om kennis te behouden. Training in digitale vaardigheden en datageletterdheid maakt doorstroom mogelijk. Veel financiële instellingen kiezen voor interne leerroutes en certificaten. Hoe Achmea dit precies invult, is op het moment van schrijven niet bekend.
Europese AI-verordening stuurt gebruik
De Europese AI-verordening (AI Act) deelt systemen in risicoklassen in. Toepassingen voor kredietwaardigheid en sommige vormen van verzekeringsrisicobeoordeling vallen waarschijnlijk onder “hoog risico”. Dat betekent strengere eisen aan ontwerp, testen en toezicht. Ook registratie en documentatie krijgen een vaste plek.
De AVG blijft leidend bij persoonsgegevens. Dataminimalisatie, heldere doelen en sterke versleuteling zijn verplicht. Bij profilering en een volledig automatisch besluit met grote impact geldt recht op menselijke tussenkomst. Bedrijven moeten dit proces kunnen uitleggen en onderbouwen.
Hoog risico betekent extra eisen zoals strikte datakwaliteit, menselijk toezicht en een gedocumenteerd risicobeheerproces.
Transparantie is nodig in klantcontact. Klanten moeten weten wanneer zij met een systeem praten en hoe gegevens worden gebruikt. Logboeken en modelkaarten maken controles achteraf mogelijk. Dat helpt ook bij audits door toezichthouders.
Kansen en duidelijke grenzen
Algoritmen kunnen schadeafhandeling versnellen en fouten verminderen. Snellere service drukt kosten en kan de klanttevredenheid verhogen. Maar snelheid mag niet boven zorgvuldigheid gaan. Juist in verzekeringen zijn de gevolgen voor mensen groot.
Vooroordelen in data kunnen leiden tot oneerlijke uitkomsten. Dat raakt premies, acceptatie en claims. De Algemene wet gelijke behandeling en toezicht door de Autoriteit Persoonsgegevens stellen hier grenzen. Regelmatige bias-tests en correcties zijn daarom nodig.
Uitlegbaarheid blijft een harde eis. Simpele modellen of hybride aanpakken zijn vaak beter te verantwoorden dan “zwarte doos”-systemen. Documenteer daarom gegevensbronnen, aannames en versies. Zo kunnen klanten en toezichthouders besluiten toetsen.
Menselijk toezicht blijft nodig
Besluiten met grote gevolgen vragen altijd om menselijke controle. Denk aan afwijzing van een claim of het stopzetten van een polis. Medewerkers moeten uitzonderingen kunnen maken en besluiten kunnen motiveren. Dat vergroot vertrouwen en rechtvaardigheid.
Veel organisaties richten een AI-governanceboard op. Zo’n orgaan weegt risico’s, kosten en maatschappelijke effecten per toepassing. Het bewaakt ook datakwaliteit, modelversies en incidentafhandeling. Daarmee blijft overzicht behouden bij snelle uitrol.
Op het moment van schrijven is onduidelijk hoe Achmea dit precies organiseert. Wel verwachten toezichthouders in de financiële sector aantoonbare beheersmaatregelen. De Nederlandsche Bank en de AFM toetsen op robuustheid, uitlegbaarheid en audittrail. Dat dwingt tot strakke processen en rapportages.
Gevolgen voor klanten
Klanten merken mogelijk kortere wachttijden en snellere antwoorden. Chatbots en slimme formulieren kunnen eenvoudige vragen afhandelen. Complexe of persoonlijke situaties horen bij menselijk advies te blijven. Dat voorkomt misverstanden en frustratie.
Wie nadeel ervaart van een automatisch besluit, kan om uitleg en herbeoordeling vragen. Bij besluiten met juridische of vergelijkbare gevolgen geeft de AVG recht op menselijke tussenkomst. Bedrijven moeten dit laagdrempelig regelen. Duidelijke stappen en contactpunten helpen hierbij.
Transparantie over datagebruik is essentieel voor vertrouwen. Heldere privacyverklaringen en keuzes voor het delen van gegevens horen daarbij. Ook een makkelijke manier om bezwaar te maken is nodig. Op het moment van schrijven zijn er geen nieuwe klantvoorwaarden van Achmea bekendgemaakt.
