Nederlandse advocaten zien steeds vaker AI-teksten van cliënten, gemaakt met ChatGPT, Gemini of Copilot. Ze besteden daarna veel tijd aan het corrigeren van fouten en verzonnen verwijzingen. Dat speelt nu in kantoren door het hele land, op het moment van schrijven. De discussie raakt direct aan privacy onder de AVG en aan de Europese AI-verordening, inclusief de vraag naar de Europese AI-verordening gevolgen overheid en rechtspraak.
AI-teksten kosten advocaten tijd
Steeds meer cliënten leveren brieven of concept-dagvaardingen aan die met een chatbot zijn gemaakt. Dat lijkt handig, maar de teksten kloppen vaak niet juridisch. Advocaten moeten dan herschrijven in plaats van redigeren. Dat maakt zaken trager en duurder.
Generatieve AI is software die zinnen voorspelt op basis van grote hoeveelheden tekst. Het systeem snapt het recht niet zoals een jurist dat doet. Het kiest woorden die waarschijnlijk passen. Dat levert soms nette taal op, maar geen solide argument.
Kantoren melden dat AI-teksten standaardcontrole vragen. Denk aan het checken van wetsartikelen, termijnen en procesregels. Ook praktische zaken gaan mis, zoals onjuiste namen van rechtbanken. De winst aan snelheid valt zo vaak weg.
Modellen verzinnen juridische bronnen
Een bekend probleem is “hallucineren”: het model verzint dan bronverwijzingen of arresten die niet bestaan. In het recht is dat extra riskant, want één fout precedent kan de hele redenering ondermijnen. Ook verwijst de software soms naar verouderde wetgeving. Dat gebeurt als trainingsdata niet actueel zijn.
Hallucinatie is wanneer een AI-systeem met grote stelligheid onjuiste of verzonnen informatie geeft.
ChatGPT (OpenAI), Gemini (Google) en Copilot (Microsoft) geven hier zelf waarschuwingen voor. Zij raden menselijke controle aan. In de praktijk betekent dat: elke voetnoot, ieder artikel en elke uitspraak nalopen. Voor cliënten oogt dat dubbel werk, maar het is noodzakelijk.
Nederlandse procesregels zijn precies en veranderen geregeld. Een model dat niet is getraind op de laatste updates, maakt snel fouten. Advocaten signaleren dat bij termijnen, griffierechten en verwijzingen naar de verkeerde rechter. Daardoor nemen risico’s op niet-ontvankelijkheid toe.
Gevoelige cliëntdata lopen risico
Juridische dossiers bevatten veel persoonsgegevens, soms ook gevoelige gegevens. Bij gebruik van publieke chatbots is onduidelijk waar de tekst naartoe gaat en wie kan meelezen. De AVG eist dataminimalisatie en duidelijke afspraken met leveranciers. Zonder verwerkersovereenkomst is delen van dossierinformatie niet toegestaan.
OpenAI traint API-invoer op het moment van schrijven niet mee, maar het gebruik via de website kent aparte instellingen. Microsoft en Google bieden zakelijke varianten met Europese datalokaties en extra beveiliging. Die opties beperken datadeling, maar nemen het risico niet weg. Kantoren moeten dit vooraf toetsen en vastleggen.
De Autoriteit Persoonsgegevens benadrukt al langer dat organisaties alleen noodzakelijke data mogen verwerken. Versleuteling en toegangsbeheer horen daarbij. Voor advocaten komt daar het beroepsgeheim bovenop. Dat vraagt striktere keuzes dan in andere sectoren.
Kantoren stellen AI-regels op
Veel kantoren werken aan interne AI-richtlijnen. Ze bepalen welke tools zijn toegestaan en voor welke taken. Samenvatten van openbare stukken kan wel, maar voeren van cliëntdetails niet. Ook moet altijd een advocaat eindverantwoordelijk blijven en alles nalopen.
De Nederlandse Orde van Advocaten (NOvA) wijst op zorgvuldigheid en geheimhouding. Dat betekent: bronnen checken, datastromen beperken en de cliënt goed informeren. Sommige kantoren gebruiken alleen on-premise of EU-gehoste modellen. Anderen blokkeren publieke chatbots geheel.
Er ontstaan ook praktische werkwijzen. Bijvoorbeeld: eerst een conceptstructuur door de advocaat, daarna laat men AI formuleren, en tot slot volgt een juridische check. Zo blijft de vakkennis leidend en vermindert de kans op fouten. Het bespaart alleen tijd als de controle snel en strak is ingericht.
Europese AI-verordening stuurt gebruik
De Europese AI-verordening (AI Act) legt plichten op aan aanbieders van algemene AI-systemen en aan gebruikers in risicovolle domeinen. Juridische dienstverlening valt niet standaard onder hoog risico, maar transparantie en documentatie worden belangrijker. Leveranciers van grote modellen zoals GPT-4 en Gemini 1.5 krijgen extra eisen. Dat helpt kantoren bij het kiezen van betrouwbare tools.
Voor eindgebruikers, zoals advocaten, blijft de zorgplicht bestaan onder de AVG en het beroepsrecht. Het delen van broncode of promps hoeft niet, maar het borgen van kwaliteit wel. Deepfakes en synthetische media moeten herkenbaar zijn. Dat is relevant bij bewijsstukken en bij voorlichting aan cliënten en rechtbank.
Overheden krijgen ook gevolgen van de Europese AI-verordening; gevolgen overheid raken aanbestedingen en toezicht. Als rechtbanken of bestuursorganen AI inzetten, gelden hoge eisen aan transparantie en bezwaar. Dat zet de toon voor de hele rechtsketen. Advocaten zullen daarop moeten aansluiten met hun eigen AI-beleid.
Praktische stappen voor nu
Gebruik alleen AI binnen een duidelijk beleid. Leg vast welke tools zijn toegestaan, met welke instellingen en voor welke taken. Sluit verwerkersovereenkomsten en zet EU-databewaring aan waar mogelijk. Train medewerkers in risico’s, inclusief hallucinaties en datalekken.
Werk met sjablonen en checklists voor juridische controle. Laat AI geen nieuwe feiten “bedenken”, maar alleen bewerken wat al vaststaat. Vraag altijd om bronverwijzingen en verifieer die handmatig. Bewaar een audittrail van belangrijke beslissingen.
Experimenteer met veilige alternatieven, zoals afgeschermde modellen op kantoorservers of leverancierstools binnen de EU. Overweeg retrieval-technieken die putten uit een interne, goedgekeurde kennisbank. Begin klein en meet kwaliteit en tijdswinst. Schaal pas op als foutpercentages dalen en privacy is geborgd.
