De autoritaire aanpak van Anthropic in de VS roept China-vergelijkingen op

  • Home
  • >
  • Blog
  • >
  • Nieuws
  • >
  • De autoritaire aanpak van Anthropic in de VS roept China-vergelijkingen op

Amsterdam, 1 april 2026 14:45 

Anthropic, de Amerikaanse maker van de AI-assistent Claude, zet in op stevige overheidscontrole op zeer krachtige algoritmen. Het bedrijf bepleit licenties en verplichte veiligheidstoetsen in de Verenigde Staten. Critici noemen die koers autoritair en vergelijken die met de Chinese aanpak. De inzet is het beperken van risico’s van zogeheten frontier-modellen en de gevolgen voor de Europese AI-verordening en overheidstoepassingen.

Licenties voor frontier-modellen

Anthropic wil dat de VS een vergunningstelsel invoert voor extreem krachtige AI-systemen. Frontier-modellen zijn systemen die door hun schaal en vaardigheden grotere maatschappelijke schade kunnen veroorzaken. Denk aan geautomatiseerde misleiding, geavanceerde cyberaanvallen of kennis voor biologische dreigingen. Het bedrijf ziet een rol voor de overheid om trainingen en uitrol te toetsen.

De start-up publiceerde eerder een Responsible Scaling Policy. Daarin staan veiligheidsniveaus en stopknoppen bij risicosignalen. Het idee is simpel: eerst testen, dan pas opschalen. Zo moet misbruik worden voorkomen voordat het model breed beschikbaar komt.

In Washington groeit steun voor meldplichten en drempels op rekenkracht. Zulke drempels gaan over het aantal chips en het energieverbruik bij training. Ze moeten duidelijk maken wanneer extra toezicht nodig is. Dat vergt wel heldere, meetbare criteria.

China-vergelijking roept zorgen

De kritiek op Anthropic richt zich op de macht van de staat over algoritmen. In China zijn voorafgaande keuringen, strikte inhoudsregels en identiteitscontroles al verplicht voor generatieve systemen. Tegenstanders vrezen dat een vergelijkbare lijn in de VS vrijheid en innovatie kan knellen. Ook zou dit een precedent scheppen voor inhoudssturing.

Sommige experts noemen dit een glijdende schaal. Eerst gaat het om veiligheidstoetsen, daarna om wat een model wel of niet mag zeggen. Dat raakt aan vrijheid van meningsuiting en kennisdeling. Het risico is dat veiligheidsnormen doorschieten naar inhoudsnormen.

Voor bedrijven die wereldwijd opereren levert dit extra complexiteit op. Een model kan dan per land andere beperkingen krijgen. Dat maakt beheer en controle duurder en lastiger. Kleinere spelers hebben daar vaak minder middelen voor.

“Frontier-modellen vragen om extra waarborgen, maar toezicht mag geen verkapte inhoudscontrole worden.”

EU kiest risico-benadering

Europa volgt met de AI-verordening een andere route. De EU classificeert toepassingen op risico, van minimaal tot hoog. Algoritmen voor kritieke domeinen, zoals zorg en overheid, vallen zwaarder onder regels. Daarbij horen eisen voor transparantie, documentatie en menselijk toezicht.

Voor zogeheten general-purpose AI (GPAI), zoals Claude, komen specifieke plichten. Denk aan technische documentatie, evaluaties en informatie voor ontwikkelaars die het model hergebruiken. Bij “systemische” GPAI met zeer grote impact kan de Europese Commissie extra verplichtingen opleggen. Op het moment van schrijven zijn de uitvoeringsregels nog in uitwerking.

Voor Nederlandse organisaties is dit kader leidend. De AI-verordening werkt samen met de AVG. Dat betekent dat dataminimalisatie, beveiliging en duidelijke rollen (verwerkingsverantwoordelijke en verwerker) verplicht blijven. Leveranciers moeten kunnen aantonen hoe hun systemen aan de eisen voldoen.

Risico op marktmacht en lock-in

Strenge licenties kunnen veiligheid verhogen, maar ook marktmacht vergroten. Grote spelers als Anthropic, OpenAI en Google DeepMind hebben meer middelen om te voldoen. Kleinere bedrijven en openbronprojecten lopen kans buiten te vallen. Dat kan innovatie en concurrentie schaden.

Regulatoire overmacht ligt op de loer. Wanneer definities en testprotocollen vooral door marktleiders worden bepaald, ontstaat een voordeel voor hen. Dit heet ook wel regulatory capture. Onafhankelijke standaarden en audits zijn daarom cruciaal.

Transparantie over trainingsdata en evaluaties blijft bovendien beperkt. Bedrijven vrezen misbruik of kopiëren van hun modellen. Maar zonder voldoende inzicht kunnen toezichthouders risico’s moeilijk beoordelen. Een middenweg is nodig met privacyvriendelijke en vertrouwelijke audits.

Gevolgen voor Nederlandse overheid

Overheden in Nederland die Claude of vergelijkbare systemen willen inzetten, moeten vooruit plannen. De Europese AI-verordening gevolgen overheid zijn concreet: risicobeoordeling, uitleg over beslislogica en logging van gebruik. Ook moeten burgers bezwaar kunnen maken bij geautomatiseerde besluiten. Dat vergt governance, training en duidelijke procedures.

Dataprotectie blijft een harde randvoorwaarde onder de AVG. Gegevens moeten minimaal, doelgebonden en goed versleuteld zijn. Verwerkersovereenkomsten horen standaard te zijn bij cloudgebruik. Bij generatieve AI is extra aandacht nodig voor gegevens die per ongeluk in prompts belanden.

Leverancierskeuze wordt strategisch. Als de VS licenties en exportregels aanscherpt, kan toegang tot modellen veranderen. Contracten moeten daarom clausules bevatten over continuïteit en fallback-opties. Open Europese alternatieven en on-premise oplossingen verdienen een serieuze afweging.

Nodig: heldere, toetsbare normen

De kernvraag is niet óf er toezicht moet zijn, maar hóe. Normen moeten technisch toetsbaar, proportioneel en internationaal afgestemd zijn. Het NIST AI Risk Management Framework en Europese normalisatie (CEN/CENELEC) bieden aanknopingspunten. Onafhankelijke labs kunnen gestandaardiseerde veiligheidstesten uitvoeren.

Ook bij Claude zijn openbare evaluaties nuttig. Denk aan robuustheidstests, biasmetingen en misbruikscenario’s. Samenvattingen daarvan kunnen publiek zijn, met detailtoegang voor toezichthouders. Zo ontstaat vertrouwen zonder bedrijfsgeheimen onnodig te delen.

Tot slot is democratische controle nodig. Parlementen in de VS en EU moeten betrokken zijn bij definities en drempelwaarden. Dat voorkomt dat veiligheidsbeleid sluipenderwijs inhoudsbeleid wordt. En het houdt de balans tussen innovatie, veiligheid en grondrechten.


Over Dave

Hoi, ik ben Dave – schrijver, onderzoeker en nieuwsgierige geest achter AIInsiders.nl. Ik hou me bezig met de manier waarop technologie ons leven verandert, en vooral: hoe we dat een beetje kunnen bijbenen. Van slimme tools tot digitale trends, ik duik graag in de wereld achter de schermen.

Mijn stijl? Lekker helder, soms kritisch, altijd eerlijk. Geen onnodig jargon of overdreven hype, maar praktische inzichten waar je echt iets aan hebt. AI is niet eng of magisch – het is interessant, en ik help je graag om dat te zien.

{"email":"Email address invalid","url":"Website address invalid","required":"Required field missing"}

Elke dag het laatste AI-nieuws ontvangen?

Schrijf je in voor onze nieuwsbrief en ontvang iedere dag het laatste AI-nieuws. Zo weet je zeker dat je altijd op de hoogte bent van updates en meer.

Misschien ook interessant

China zet een grote stap om het hoger onderwijs te herbouwen voor het tijdperk van kunstmatige intelligentie. Het ministerie van

Ubisoft heeft deze week een nieuwe renderingtechniek getoond met de naam Micropolygons. Het bedrijf wil hiermee filmkwaliteit in real‑time mogelijk

Het World Horti Center in Naaldwijk opende deze week een nieuw themaplein over robotica en kunstmatige intelligentie. Het plein laat

>