Een Nederlandse rechter waarschuwt voor het gebruik van ChatGPT van OpenAI bij het opstellen van processtukken. In een recente zaak stelde de rechter dat zulke AI-teksten kunnen bijdragen aan misbruik van procesrecht. De documenten waren massaal, vaag en deels onjuist. Dit raakt ook aan de Europese AI-verordening en de gevolgen voor overheid en rechtspraak.
Rechter waarschuwt voor AI-teksten
De kern van het oordeel is dat standaardteksten uit ChatGPT vaak niet passen bij de feiten van de zaak. Daardoor ontstaan foutieve of onvolledige vorderingen. Als veel van zulke stukken tegelijk binnenkomen, raakt de rechtspraak onnodig belast.
Bij procesrecht geldt dat een partij haar standpunt goed moet onderbouwen. Een tekstgenerator levert geen bewijs, maar alleen taal. Zonder controle en maatwerk kan dit uitlopen op misbruik van procesrecht.
In vergelijkbare situaties bleek dat AI-modellen soms bronverwijzingen of jurisprudentie verzinnen. Dat heet hallucinatie: het systeem vult iets in dat niet klopt. Dit risico geldt ook voor ChatGPT, dat is getraind om plausibele tekst te produceren, niet om feiten te verifiƫren.
Misbruik van procesrecht is het inzetten van de rechter zonder redelijk belang, of op een manier die anderen onnodig schaadt.
Kwaliteit en verificatie schieten tekort
ChatGPT is een taalmodel dat het meest waarschijnlijke vervolg van woorden voorspelt. Het controleert geen feiten en kent geen context buiten de ingevoerde tekst. Hierdoor sluipen er makkelijk fouten en onnauwkeurigheden in processtukken.
Generieke AI-teksten missen vaak specifieke gegevens, zoals data, contractnummers of lokale regels. Soms worden buitenlandse regels vermengd met Nederlands recht. Dat maakt een vordering zwak of zelfs onjuist.
Rechters vragen logische argumenten, bewijs en juiste verwijzingen. AI kan helpen bij een eerste opzet, maar de gebruiker moet alles controleren. Zonder menselijke verificatie wordt de tekst een risico in plaats van een hulpmiddel.
Gevolgen voor procespartijen
De rechter kan ingrepen toepassen bij misbruik, zoals niet-ontvankelijkheid of een proceskostenveroordeling. Dat moet onnodige procedures en extra werk voor de rechtbank voorkomen. Het gebruik van AI ontslaat partijen niet van hun plichten in de rechtszaal.
Voor advocaten gelden beroepsnormen, zoals de waarheidsplicht en zorgvuldigheid. Wie blind vertrouwt op AI-teksten, loopt risico op tuchtrechtelijke problemen. Voor burgers zonder advocaat geldt hetzelfde: controleer altijd en vraag zo nodig juridisch advies.
Ook tijd en geld staan op het spel. Slechte stukken vertragen de afhandeling en vergroten de kans op verlies van de zaak. Degelijke onderbouwing blijft de snelste weg naar een uitspraak.
AVG en vertrouwelijkheid
Processtukken bevatten vaak persoonsgegevens en gevoelige details. Wie deze informatie invoert in een publieke AI-dienst, verwerkt data onder de AVG. Dat vraagt dataminimalisatie, doelbinding en passende beveiliging.
Het is verstandig om geen herleidbare persoonsgegevens in te voeren in ChatGPT of andere openbare systemen. Gebruik geanonimiseerde samenvattingen en verwijder bijlagen met privƩdata. Versleuteling en toegang op basis van noodzaak horen daarbij.
OpenAI biedt instellingen om het delen van chats voor trainingsdoeleinden te beperken, maar de verantwoordelijkheid blijft bij de gebruiker. Op het moment van schrijven is naleving van de AVG een eigen plicht van organisaties en juristen. Maak daarom DPIAās, sluit verwerkersovereenkomsten en leg keuzes vast.
Europese AI-verordening gevolgen overheid
De Europese AI-verordening (AI Act) introduceert regels voor algemene AI-systemen zoals ChatGPT. Transparantie en risicomanagement worden verplicht, met gefaseerde invoering vanaf 2025. Dat raakt ook de overheid als inkoper en gebruiker van AI-diensten.
Voor de rechtspraak en andere publieke instellingen betekent dit strengere eisen aan inkoop en gebruik. Denk aan documentatie, evaluaties en duidelijke waarschuwingen als content door AI is gegenereerd. Dit moet de betrouwbaarheid van besluitvorming en procedures versterken.
Voor de juridische sector komt geen verbod op generatieve AI, maar wel meer plichten rond uitleg en controle. AI-tekst moet herkenbaar en verifieerbaar zijn. Dat sluit aan bij de eisen die rechtbanken al langer stellen aan processtukken.
Praktische richtlijnen voor gebruik
Gebruik AI als hulpmiddel, niet als autoriteit. Laat ChatGPT een eerste schets maken en voeg daarna feiten, bewijs en eigen redenering toe. Controleer citaten en rechtspraak altijd bij de bron.
Voorkom massale standaardvorderingen zonder maatwerk. Pas teksten aan op het dossier en de toepasselijke Nederlandse regels. Houd een logboek bij van controles en bronnen.
Bescherm privacy door te anonimiseren of te werken met een afgeschermde, contractueel geborgde oplossing. Overweeg on-premise of EU-gehoste systemen met duidelijke verwerkersafspraken. Zo blijft AI nuttig, zonder de rechtspraak te belasten of regels te schenden.
