De Inspectie Justitie en Veiligheid (hierna: Inspectie JenV) heeft onderzoek gedaan naar het gebruik van algoritmes bij de drie reclasseringsorganisaties in Nederland (hierna: de reclassering): Reclassering Nederland, het Leger des Heils Jeugdbescherming & Reclassering en Stichting Verslavingsreclassering GGZ. De reclassering heeft als één van haar kerntaken om adviezen uit te brengen over verdachten en veroordeelde personen. De reclassering adviseert met welke bijzondere voorwaarden (zoals een locatieverbod of behandeling) het risico op recidive kan worden beperkt. De reclassering stelt het advies op aan de hand van relevante factoren als de aard van het gepleegde delict, het delictverleden, de persoonlijke omstandigheden van de verdachte/veroordeelde en een inschatting over het recidiverisico. Voor de inschatting van één van deze elementen, het risico op recidive, wordt gebruik gemaakt van risicotaxatie-algoritmes. Dit zijn algoritmes die aan de hand van enkele vragen over een verdachte of veroordeelde de kans op het opnieuw plegen van een strafbaar feit voorspellen. De uitkomsten van deze algoritmes worden meegewogen in het uiteindelijke advies van de reclasseringsmedewerker. Deze combinatie van het menselijk oordeel en het gebruik van één of meerdere algoritmes is een bewuste keuze van de reclassering om tot een gestructureerd oordeel te komen, en daarbij (onbewuste) bias van reclasseringsmedewerkers te voorkomen. Uiteindelijk beslist de rechter of een strafmaatregel wordt opgelegd. Als de rechter beslist een straf op te leggen, dan zoekt de rechter naar een passende straf en houdt daarbij rekening met de omstandigheden. De straf die de rechter oplegt hangt af van: de ernst van het misdrijf, de omstandigheden van het misdrijf en leeftijd en voorgeschiedenis van de dader, en de relevante wettelijke kaders. De reclassering adviseert de rechter en het OM over de tweede factor: de persoon c.q. de persoonlijke omstandigheden van de verdachte/veroordeelde.
De centrale onderzoeksvraag luidt: “Worden algoritmes bij de reclassering op een verantwoorde manier gebruikt?”
De Inspectie JenV heeft de volgende deelvragen geformuleerd om deze vraag te kunnen beantwoorden:
• Welke algoritmes gebruikt de reclassering?
• Voldoen de algoritmes aan de normen die gesteld zijn voor overheidsalgoritmes?
• Welke gevolgen kunnen de algoritmes hebben op mensen in een kwetsbare positie?
• In hoeverre is de reclassering voorbereid op de nieuwe wettelijke vereisten van de Artificiële Intelligentie verordening (AI-verordening)?
De Inspectie JenV heeft dit onderzoek uitgevoerd in de periode van januari tot en met oktober 2025. Voor dit onderzoek heeft de Inspectie JenV bij de reclassering documentatie geanalyseerd over de algoritmes die zij gebruikt. Dit betreffen onder andere beleidsdocumenten, wetenschappelijke studies, documentatie over de werking van de algoritmes en Data Protection Impact Assessments (DPIA’s). Ook heeft de Inspectie JenV de sturing op het gebruik van algoritmes onderzocht en beoordeeld hoe de algoritmes in de praktijk gebruikt worden door middel van dataanalyses en interviews met betrokken medewerkers. De algoritmes zijn beoordeeld op grond van het toetsingskader algoritmes van de Inspectie JenV. Na een inventarisatie van de algoritmes die de reclassering gebruikt, is er nader onderzoek gedaan naar de vier risicotaxatie-algoritmes die de reclassering gebruikt: de OXREC, STATIC-99R, STABLE-2007 en ACUTE-2007. Dit zijn algoritmes die een risico-inschatting berekenen voor de kans op recidive aan de hand van persoonsgegevens zoals leeftijd, geslacht en delictverleden. De Inspectie JenV heeft besloten nader onderzoek te doen naar deze algoritmes omdat ze een belangrijk onderdeel vormen van het primaire proces van de reclassering. Dit komt omdat het gebruik van algoritmes verplicht is bij reclasseringsadviezen en medewerkers de uitkomsten van de algoritmes expliciet meenemen in hun risicoinschattingen. De uitkomsten belanden op deze wijze ook in rechtbank. Als er tekortkomingen zouden blijken in de toepassing van deze algoritmes, dan zou dit nadelige gevolgen kunnen hebben voor verdachten, veroordeelden en de maatschappij. 1.2 Bevindingen Technische robuustheid OXREC De Inspectie JenV heeft in haar onderzoek tekortkomingen geconstateerd op methodologisch en praktisch vlak met betrekking tot het gebruik van de OXREC door de reclassering. De Inspectie JenV heeft in de software-implementatie van de OXREC drie gebreken aangetroffen. Deze bevindingen maken dat sinds de ingebruikname van het algoritme in 2018 het algoritme geen correcte voorspellingen heeft gedaan. Deze gebreken zijn dusdanig groot dat de Inspectie JenV met behulp van computersimulaties schat dat in ongeveer 21% van de gevallen de OXREC tot een andere risicocategorie zou zijn gekomen als het algoritme op de bedoelde wijze zou zijn toegepast. Dit zou dan meestal een hogere risico-inschatting zijn geweest. De Inspectie JenV heeft niet onderzocht in welke mate de uitkomst van de OXREC van invloed is geweest op de daadwerkelijke adviezen die de reclassering heeft gegeven, en hoe (bijvoorbeeld) OM en rechtbank die adviezen hebben gewogen. STATIC-99R, STABLE-2007, ACUTE-2007 Deze drie algoritmes worden wereldwijd veel gebruikt om het recidiverisico te voorspellen bij mannelijke zedendelinquenten.
De Inspectie JenV heeft geen gebreken aangetroffen in de software-implementatie van deze algoritmes. Van deze drie algoritmes is alleen de STATIC-99R gevalideerd in een Nederlandse populatie met mannelijke zedendelinquenten, zij het met verouderde data uit de periode 1995-2002. De STABLE-2007 en ACUTE-2007 zijn niet gevalideerd in een Nederlandse populatie. Hierdoor is het onduidelijk of de algoritmes ook goed functioneren bij Nederlandse mannelijke zedendelinquenten en/of -verdachten. De Inspectie JenV heeft niet onderzocht wat de gevolgen hiervan zijn geweest in de praktijk.
Privacy en datagovernance
De vier risicotaxatie-algoritmes zijn profilerende algoritmes waar een Data Protection Impact Assessment (DPIA) voor verplicht is volgens de Algemene Verordening Gegevensbescherming (AVG). Deze DPIA’s ontbreken voor de vier risicotaxatie-algoritmes, waardoor er niet aan de wettelijke vereisten van de AVG wordt voldaan.
Transparantie
De vier risicotaxatie-algoritmes zijn openbaar gepubliceerd en de werking is relatief eenvoudig en inzichtelijk. De algoritmes zijn niet gepubliceerd in het algoritmeregister, maar de reclassering is voornemens dit wel te doen voor het einde van 2025. AI-verordening Naar inzicht van de Inspectie JenV is de OXREC een hoog-risico AI-systeem waar de Artificiële Intelligentie verordening (AI-verordening) op van toepassing is en waarvoor strenge wettelijke vereisten gelden. De reclassering heeft nog geen maatregelen getroffen om aan deze wettelijke eisen te voldoen.
Diversiteit, non-discriminatie en rechtvaardigheid
In 2020 publiceerde hoogleraar Gijs van Dijck een kritisch artikel over de OXREC. Hierin stelde hij dat gebruik van de OXREC mogelijk kan leiden tot etnisch profileren. De reclassering heeft de inschatting gemaakt dat er geen sprake was van discriminatie. Hierdoor zijn er geen stappen ondernomen om discriminatie door de algoritmes te voorkomen, te meten of te verminderen. De Inspectie JenV constateert dat de OXREC twee variabelen (‘buurtscore’ en ‘hoogte van het inkomen’) gebruikt die mogelijk kunnen leiden tot discriminatie van personen met een migratieachtergrond. Het gebruik van dit type variabelen is volgens het College voor de Rechten van de Mens verboden op basis van de grondwet en internationale verdragen als er geen aanvullende maatregelen getroffen zijn. De Inspectie JenV constateert dat deze maatregelen niet zijn genomen door de reclassering