Het gebruik van AI in juridische procedures
In een recente uitspraak heeft de Rechtbank Oost-Brabant zich gebogen over een geschil waarin de eiser bij het opstellen van de dagvaarding gebruik had gemaakt van kunstmatige intelligentie. De rechter kwalificeerde dit handelen als misbruik van procesrecht en veroordeelde eiser tot vergoeding van de volledige proceskosten. Het gebruik van AI in juridische procedures is niet uniek voor Nederland; wereldwijd worstelen rechters met de gevolgen van onzorgvuldig AI-gebruik in processtukken. De vraag rijst of – en zo ja onder welke omstandigheden – het gebruik van AI in juridische procedures kan bijdragen aan het aannemen van misbruik van procesrecht.
Grondslag voor misbruik van procesrecht
Bij vonnis van 24 december 2025 oordeelde de Rechtbank Oost-Brabant dat de eiser gehouden was de volledige proceskosten van de wederpartij te vergoeden vanwege misbruik van procesrecht. Eiser – procederend in persoon – had de processtukken opgesteld met behulp van een AI-tool. Deze stukken bevatten meerdere onbegrijpelijke verwijzingen naar wetsartikelen en juridische onjuistheden. De rechtbank oordeelde dat van eiser mocht worden verwacht dat hij de met behulp van AI gegenereerde stukken had nagelezen en dat hij zich had vergewist van de juridische relevantie en juistheid daarvan, al dan niet door deze te laten controleren. Door het handelen van de eiser hebben de gedaagden extra tijd en moeite moeten steken in het voeren van verweer tegen de stellingen van de eiser. Het geheel overziend, zo stelt de rechtbank, draagt het indienen van ondermaatse, door AI geproduceerde, processtukken bij aan misbruik van procesrecht. Het gebruik van AI an sich wordt door de rechtbank dus niet als misbruik van procesrecht aangemerkt.
Het fenomeen van AI-hallucinaties in juridische context
De onjuistheden waarnaar de rechtbank verwijst, zijn symptomatisch voor een breder probleem: generatieve AI-tools zoals ChatGPT kunnen overtuigend klinken, maar produceren volstrekt fictieve rechtsbronnen. Deze zogenoemde 'hallucinaties' manifesteren zich op verschillende manieren: volledig verzonnen uitspraken gelardeerd met niet-bestaande zaaknummers, correcte verwijzingen naar bestaande zaken maar met fictieve inhoud, of niet-bestaande wetsartikelen die juridisch plausibel klinken. Het gevaar schuilt juist in de overtuigingskracht van deze fictieve bronnen. Omdat AI juridisch correct lijkt te formuleren en bronnen presenteert in het verwachte format, vallen onjuistheden niet altijd direct op. Dit geldt temeer bij hoge werkdruk of wanneer rechters sterk afhankelijk zijn van de door partijen aangeleverde onderbouwing. Het is dus zaak om verantwoord om te gaan met het gebruik van AI-instrumenten binnen het procesrecht. Maar bij wie ligt die verantwoordelijkheid?
Verantwoordelijkheden rondom AI-gebruik
Bij de eisen rondom verantwoord AI-gebruik zal waarschijnlijk een onderscheid worden gemaakt tussen advocaten en partijen die ‘in persoon’ procederen en niet door een advocaat worden bijgestaan. De rechtbank zelf kan natuurlijk ook gebruik maken van AI: de Rechtbank Den Haag heeft zelfs recent in een uitspraak in een beroepsprocedure de behoefte gevoeld aan te geven dat bij de voorbereiding en de beoordeling van het beroep en bij de totstandkoming van de uitspraak geen gebruik heeft gemaakt van AI en/of algoritmes.
Ten aanzien van het gebruik van AI door partijen die in persoon procederen valt uit de hierboven besproken uitspraak in ieder geval af te leiden dat de rechtbank verwacht dat partijen omwille van de zorgvuldigheid en om extra werk aan de zijde van diens wederpartij te voorkomen, de output zal nalezen en de juridische relevantie en juistheid zal controleren of eventueel laten controleren door een advocaat. Opvallend, omdat dit verder lijkt te strekken dan procederen in persoon zonder het gebruik van AI. Dit roept de vraag op of AI-gebruik paradoxaal genoeg tot een verzwaring van de zorgplicht leidt.
Ten aanzien van advocaten die een zodanige misstap maken is de Nederlandse rechter tot op heden terughoudend gestemd. In een vreemdelingenrechtelijke procedure van november 2025 konden aangehaalde citaten niet worden geverifieerd en waren deze daarnaast niet in lijn met recente jurisprudentie. Het gebruik van ChatGPT kon door de rechter echter niet worden vastgesteld. In een vastgoedgeschil uit dezelfde maand gaf de rechtbank bij haar beoordeling van de door de eiser gestelde vordering haar vermoeden aan dat de vordering was onderbouwd door middel van niet bestaande jurisprudentie of jurisprudentie die in het geheel niets met de zaak van doen had. In dit licht kaartte de rechtbank aan te vermoeden dat deze stellingen het product waren van het gebruik van AI en dat deze stukken zonder controle door de eiser waren overgenomen. In beide gevallen bleef de rechterlijke reactie beperkt tot het passeren van de betreffende stellingen en kritische opmerkingen in de uitspraak.
Waar de Nederlandse rechter tot op heden terughoudend is met het verbinden van sancties aan onzorgvuldig AI-gebruik door advocaten, laat de Belgische rechtspraak zien dat bij structureel of massaal gebruik sneller wordt aangenomen dat sprake is van misbruik van procesrecht. Het Hof van Beroep in Gent constateerde dat ‘onoordeelkundig’ en ‘ongecontroleerd’ gebruik van AI had geleid tot nodeloos tijdsverlies voor de rechtspraak en de wederpartij. Hoewel de reactie van het Hof niet mals is, en het Hof expliciet aandacht besteedt aan de maatschappelijke kosten van dergelijk slordig procederen, bleven ook hier de consequenties beperkt tot het buiten beschouwing houden van (fictieve) bronnen. Daarbij toonde het Hof zich genuanceerd: het gebruik van AI kan een meerwaarde hebben, mits de mens “aan het stuur blijft”.
In een uitspraak van het Hof van Beroep te Antwerpen werd echter een verdergaande stap gezet. In die zaak hadden eisers met behulp van AI een groot aantal procedures aanhangig gemaakt. De kwantiteit van de ingestelde vorderingen, gecombineerd met de aard van de aangevoerde argumentatie, maakte dat eisers reeds bij voorbaat wisten of hadden moeten weten dat geen van de vorderingen kans van slagen had. In deze zaak werd het duidelijk dat de eisers door middel van AI een grote hoeveelheid vorderingen wisten op te tuigen, waarbij de argumentatie van dien aard was, dat de eisers al bij voorbaat wisten of hadden moeten weten dat geen van de vorderingen toegewezen zou worden. Het Hof concludeert hier dat misbruik is gemaakt van de schaarse tijd en middelen van de rechtspraak en veroordeelde de eisers derhalve in de proceskostenvergoeding van diens wederpartijen en tot een boete wegens ernstig misbruik van het procesrecht.
Wat vindt de NOvA?
Al met al lijken rechters nog geen eenduidige lijn te hebben gekozen, en de noodzaak tot tuchtrechtelijke verduidelijking groeit. In recente Amerikaanse zaken kregen advocaten boetes opgelegd, of verplichte aanvullende trainingen over de risico’s van AI-gebruik, omdat ze in strijd handelden met Amerikaans tuchtrecht. Mag de Nederlandse Orde van Advocaten (NOvA) hier ook toe overgaan?
De NOvA benadrukt in haar ‘aanbevelingen AI in de advocatuur’ dat het gebruik van AI grote kansen voor de advocatuur met zich meebrengt, maar dat moet worden opgelet dat het gebruik hiervan niet strijdig mag zijn aan de kernwaarden van de advocatuur. Daarnaast zouden advocaten toestemming moeten vragen aan cliënten voordat tot gebruik van AI wordt overgemaakt. Ook dit lijkt verder te strekken dan wat de huidige beroepsregels vereisen. Daarnaast stelt zij dat de advocaat bij het gebruik van AI ten aller tijden verantwoordelijk blijft voor diens eigen ingebrachte stukken. De advocaat die hierin in strijd handelt met de te verwachten deskundigheid, zou tuchtrechtelijk aansprakelijk worden gesteld.
Voorlopige positie van AI-gebruik ten opzichte van misbruik van procesrecht
Uit de geschetste ontwikkelingen kristalliseert zich een helder normatief uitgangspunt:
AI-gebruik in juridische procedures is toegestaan en kan waardevol zijn, maar creëert een (verzwaarde) verificatieplicht. Voor partijen in persoon betekent dit: bij twijfel over juridische juistheid professionele controle zoeken. Voor advocaten geldt: AI is een hulpmiddel, geen vervanging van juridische expertise. Elke verwijzing naar rechtspraak, wetgeving of doctrine vereist individuele verificatie. De uitspraak van de Rechtbank Oost-Brabant markeert geen verbod op AI, maar een waarschuwing: wie de voordelen van AI wil benutten, moet ook de verantwoordelijkheid voor verificatie dragen. In een tijdperk waarin technologie steeds meer juridisch werk kan faciliteren, blijft menselijke controle het fundament van rechtspraak. AI mag assisteren, maar nooit dicteren. De advocaat, de partij, en uiteindelijk de rechter blijven verantwoordelijk voor wat op papier komt – digitaal gegenereerd of niet.