Short Reads

Een strategisch actieplan voor het gebruik van AI door de overheid

Een strategisch actieplan voor het gebruik van AI door de overheid

Een strategisch actieplan voor het gebruik van AI door de overheid

13.11.2019

Een paar jaren geleden hoorde je er nog nauwelijks over, maar nu kan je er bijna niet meer om heen: kunstmatige intelligentie, ook wel artificiële intelligentie (AI) genoemd.  AI verwijst naar systemen die intelligent gedrag vertonen door hun omgeving te analyseren en – met een zekere mate van zelfstandigheid – actie ondernemen om specifieke doelen te bereiken. Denk aan zelfrijdende auto's of slimme thermostaten. 

Ook de overheid maakt steeds meer gebruik van AI. In een eerder artikel gingen wij al dieper in op een bepaalde vorm van AI bij de overheid: geautomatiseerde besluitvorming via algoritmes. In een ander artikel bespraken wij het Kamerdebat dat werd gevoerd naar aanleiding van het ongevraagde advies van de Raad van State waarin gevaren en pijnpunten staan beschreven van de digitalisering bij de overheid. In dat artikel signaleerden wij al  dat op 8 oktober 2019 het Strategisch Actieplan voor Artificiële Intelligentie  (Actieplan) is verschenen. In dit bericht gaan wij dieper in op dit Actieplan en beoordelen wij in hoeverre het Actieplan tegemoet komt aan de bezwaren die de Afdeling advisering in het advies signaleert.

Het Actieplan

Na andere Europese landen zoals Duitsland en Frankrijk komt nu ook het Nederlandse kabinet via dit Actieplan met een visie hoe Nederland kan profiteren van AI. Het kabinet meent dat als Nederland wil blijven meespelen in de wereldwijde economie, de ontwikkeling en toepassing van AI in Nederland moet versnellen. Het Actieplan beschrijft de koers die het kabinet wil inzetten en vormt de eerste stap om concrete acties voor de beoogde versnelling in gang te zetten.

De aanpak van het kabinet in drie sporen

In het actieplan is te lezen dat het kabinet de ontwikkeling en toepassing van AI op een zorgvuldige wijze wil versnellen via drie sporen. Bij elk spoor worden concrete acties/maatregelen beschreven die momenteel lopen of in de nabije toekomst uitgevoerd zullen worden. Spoor 1 ziet op het benutten van maatschappelijke en economische kansen op het gebied van AI. Het kabinet meent dat hiervoor publiek-private samenwerking (PPS) nodig is, waarvan de Nederlandse AI-Coalitie het belangrijkste voorbeeld is. Spoor 2 moet zorgen voor een vruchtbaar AI-klimaat. Er worden maatregelen genoemd ter aansporing van wetenschappelijk onderzoek naar AI. Ook wordt er bijvoorbeeld ingezet op betere bijscholingsmogelijkheden en wordt het kiezen voor ICT-opleidingen gestimuleerd. Wij zullen ons in dit blog verder richten op spoor 3 omdat daarin het gebruik van AI door de overheid centraal staat.

Spoor 3: versterken van de fundamenten

Spoor 3 staat in het teken van het 'versterken van de fundamenten'. Het stimuleren van de ontwikkeling en toepassing van AI klinkt wellicht als een goed idee, maar het kabinet is zich er ook terecht van bewust dat bij de toepassing van AI door de overheid negatieve effecten kunnen optreden. Denk aan geautomatiseerde besluitvorming die vanwege de achterliggende complexe algoritmes moeilijk te controleren is. Spoor 3 beschrijft verschillende beleidsmaatregelen en acties die deze negatieve effecten moeten voorkomen of verminderen. Het Actieplan richt zich op het versterken van vier fundamenten:

1.       Publieke waarden en mensenrechten beschermen

Wanneer de overheid zelf AI gebruikt, kunnen er publieke waarden en mensenrechten in het geding zijn. Het verbod op discriminatie zou bijvoorbeeld geschonden kunnen worden door bias in algoritmes, waardoor er een ongerechtvaardigd onderscheid wordt gemaakt tussen mannen en vrouwen. Ook kun je denken aan het recht op een eerlijk proces. Als ondoorzichtig is welke algoritmes zijn gebruikt bij geautomatiseerde overheidsbesluitvorming, dan ontstaat er druk op de aanvechtbaarheid en motivering van besluiten. Dat ondoorzichtige algoritmes een mogelijk probleem voor het recht op een eerlijk proces vormen, signaleerde de Afdeling advisering ook al. Zo staat een gebrek aan openbaarheid en transparantie van een algoritme in de weg aan het uitoefenen van rechten als het kunnen rectificeren of wissen van persoonsgegevens. Te denken valt ook aan de Blankenburgtunnel-uitspraak, waarin de ABRvS als norm voor verstrekking van achterliggende gegevens geeft dat bestuursorganen zogeheten maatwerkgegevens (gegevens die het bestuursorgaan zelf moet invoeren) uit eigen beweging waarneembaar moet overleggen, zodat belanghebbenden een procedure kunnen benutten om de juistheid van de gebruikte gegevens inhoudelijk te betwisten (zie hiervoor uitgebreider een eerder Stibbeblogbericht). Het kabinet noemt meerdere acties die ervoor moeten zorgen dat publieke waarden en mensenrechten beschermd blijven, waaronder:

  • de Wetenschappelijke Raad voor het Regeringsbeleid onderzoekt de impact van AI op publieke waarden;
  • onderzoek naar de kansen en risico's die zich gaan voordoen bij algoritmen die overheidsbesluiten nemen.

Wij vragen ons af of er ook concrete acties volgen om de openbaarheid en transparantie van door de overheid gebruikte algoritmes te waarborgen, naast het verrichten van verder onderzoek.

2.       Vertrouwen in AI

Het kabinet wil AI inzetten op een wijze zodat iedereen het kan vertrouwen. Hiervoor is vereist dat AI-toepassingen worden ontwikkeld binnen wettelijke en ethische kaders. Om dit mogelijk te maken, wordt er meer geld ter beschikking gesteld voor onderzoek naar verantwoorde AI-ontwikkelmethoden en toepassingen. Daarnaast vindt het kabinet het ook met het oog op vertrouwen in AI belangrijk dat de inzet van AI door overheden controleerbaar moet zijn en dat toezichthouders hier grip op krijgen. Acties in dit verband zijn:

  • het kabinet onderzoekt voor verschillende sectoren welke algoritmen worden toegepast, welke risico's dit met zich meebrengt, hoe bedrijven deze risico's beheersen en welke waarborgen hiervoor zijn;
  • het kabinet gaat onderzoeken of toezichthouders voldoende toegerust zijn om toezicht op algoritmes te kunnen houden en of er toch nog blinde vlekken zijn in het toezichtlandschap.

3.       Markten zijn open, competitief en bieden consumenten goede bescherming

Het kabinet noemt ook beleidsmaatregelen om te zorgen voor een open competitieve markt. Een competitieve markt is noodzakelijk zodat bedrijven die AI-toepassingen ontwikkelen elkaar gaan overtroeven. Op deze manier ontstaan er steeds nieuwere en betere inzichten op het gebied van AI.

4.       De veiligheid van burgers, bedrijven en overheden in Nederland beschermen

Een toenemende toepassing van AI-technologieën in de samenleving maakt dat er nieuwe soorten kwetsbaarheden en veiligheidsdreigingen ontstaan. Denk bijvoorbeeld aan cybercrime en systeemhacking. Gelet hierop onderzoekt het kabinet momenteel de impact van het gebruik van AI op de nationale veiligheid.

Een overzicht van alle acties die het kabinet noemt om deze vier fundamenten te versterken, kunt u vinden in bijlage 1 bij het Actieplan.

Ons valt op dat het Actieplan niet ingaat op een tweede probleem dat de Afdeling advisering signaleert in haar ongevraagde advies. Zij merkt op dat regels in een natuurlijke taal lang niet altijd één op één kunnen worden vertaald in een algoritme. Regels in natuurlijke taal zijn per definitie abstract, terwijl algoritmen bedoeld zijn om van toepassing te zijn op situaties met geprogrammeerde kenmerken en geen rekening kunnen houden met impliciete kennis. Deze "robotachtige gelijkheid", waarbij geen aandacht meer bestaat voor de eigenheid van een situatie, wordt niet geadresseerd in het Actieplan.

De aanvullende Kamerbrief: waarborgen tegen risico's van data-analyses door de overheid

Gelijktijdig met het Actieplan is ook een Kamerbrief van de Minister voor Rechtsbescherming verschenen. Deze brief is een aanvulling op het derde spoor van het Actieplan. De brief beschrijft dat er risico's zijn indien data-analyses en algoritmes door de overheid worden gebruikt. Risico's zijn: een gebrek aan transparantie; een groeiende complexiteit van algoritmes waardoor analyses en uitkomsten (zoals geautomatiseerde besluitvorming) steeds lastiger te controleren zijn en onregelmatigheden in algoritmes wat kan leiden tot discriminatie.

Middels de Kamerbrief wordt de Tweede Kamer geïnformeerd over mogelijke (wettelijke) waarborgen om deze risico's tegen te gaan. Het kabinet komt enerzijds met richtlijnen voor het toepassen van algoritmes door overheden. Deze richtlijnen zijn bedoeld om het inzicht in, de transparantie en de kwaliteit van algoritmes en data-analyses door overheidsinstanties te vergroten. Anderzijds geeft het kabinet aan dat zij in de toekomst bepaalde waarborgen in wetgeving wil opnemen.

Welke waarborgen noemt het kabinet? Voor een overzicht van alle waarborgen verwijzen wij u graag naar de Kamerbrief met de bijlage waarin de richtlijnen beschreven staan. Wij volstaan hier met het noemen van drie waarborgen die vanuit het oogpunt van rechtsbescherming voor de burger relevant zijn:

  • om de transparantie van het gebruik van algoritmes door overheden te vergroten, moet het toegepaste algoritme, het doel dat daarmee wordt nagestreefd en de procedure die door het algoritme is gevolgd beter worden uitgelegd aan betrokkenen. De richtlijnen geven aan dat de overheidsdienst op haar website het publiek over deze punten moet informeren. Dit komt tegemoet aan het advies van de Afdeling advisering dat openbaarheid en transparantie essentieel zijn voor een goede uitoefening van het recht op een eerlijk proces;
  • om onjuistheden in algoritmes die kunnen leiden tot discriminatie te voorkomen, mogen overheden alleen werken met algoritmes die wetenschappelijk zijn goedgekeurd. Wij vragen ons af hoe deze maatregel uitwerking krijgt. Komt er bijvoorbeeld een publiekrechtelijke instantie die gaat controleren of overheden algoritmes gebruiken die niet wetenschappelijk zijn goedgekeurd? Worden er certificaten uitgegeven voor wetenschappelijk goedgekeurde algoritmes? De Kamerbrief is op dit punt niet helder;
  • betrokkenen hebben in bepaalde situaties recht op menselijke tussenkomst als besluiten geautomatiseerd zijn genomen. Artikel 22 van de Algemene verordening gegevensbescherming (AVG) geeft nu al aan dat indien de geautomatiseerde besluitvorming noodzakelijk is voor de totstandkoming of uitvoering van een overeenkomst of berust op de uitdrukkelijke toestemming van de betrokkene, er een recht is op menselijke tussenkomst. Het kabinet wil deze waarborg ook laten gelden voor het geval dat de geautomatiseerde besluitvorming berust op een specifieke wettelijke grondslag. Mogelijk dat het kabinet hiermee het tweede probleem dat de Afdeling advisering signaleert in haar ongevraagde advies probeert te ondervangen: het voorkomen van een "robotachtige gelijkheid" waarbij geen aandacht meer bestaat voor de eigenheid van een specifieke situatie.

Stibbe Digital Government pagina

Wilt u meer weten over digitalisering van de overheid? Houd dan onze nieuwe webpagina in de gaten die in het teken staat van ‘Digital Government’. Op deze webpagina houden wij u up-to-date over de groeiende digitalisering bij de overheid door middel van jurisprudentie, kamerstukken, relevante artikelen en onze eigen analyses.

Team

Related news

26.02.2020
18 March 2020: Erik Valgaeren sheds a light on the legal perspectives of industrial data during a Beltug conference

Speaking slot - In this era of digitisation, data is often called the 'new gold' or 'oil'.  In our aim to gain more insights that will lead us to higher revenue, new market opportunities or new regions, we are analysing data at full throttle. But it needs to be handled with care, using a data architecture that follows your general strategy while ensuring solid security, quality, etc.

Read more

12.02.2020
Het oproepen en horen van getuigen in het bestuursrecht: hoe zit het ook al weer?

Short Reads - Het oproepen van getuigen en het horen daarvan ter zitting door de bestuursrechter heeft de Hoge Raad in zijn arrest van 15 november 2019 overzichtelijk in kaart gebracht. Dat arrest, dat door de belastingkamer in een bestuurlijke boetezaak is gewezen, is ook voor andere terreinen van het bestuursrecht van belang. Mede ook omdat het horen van getuigen buiten het fiscale bestuursrecht nog in de kinderschoenen staat. In dit bericht bespreken we daarom de mogelijkheden die er bestaan om getuigen te (laten) oproepen en hoe de bestuursrechter daarmee moet omgaan.

Read more

26.02.2020
De Wet maatschappelijke ondersteuning als proeftuin voor integrale geschilbeslechting in het bestuursrecht

Short Reads - De eerste vraag die bestuursrechtjuristen vaak stellen bij het behandelen van een nieuwe zaak is of de bestuursrechter dan wel de civiele rechter daarnaar moet kijken. Die vraagt leidt in een niet onaanzienlijk aantal gevallen tot lange deliberaties met soms ook nog eens als conclusie dat het antwoord niet duidelijk is. Daarnaast blijkt in sommige zaken dat een geschil deels bij de bestuursrechter en deels bij de civiele rechter thuishoort.

Read more

12.02.2020
Omgevingsrecht en mobiliteit: hoe werkt het afwijken van parkeernormen in bestemmingsplannen?

Short Reads - Op grond van artikel 3.1.2, tweede lid, Bro kan een bestemmingsplan ten behoeve van een goede ruimtelijke ordening regels bevatten waarvan de uitleg bij de uitoefening van een daarbij aangegeven bevoegdheid afhankelijk wordt gesteld van beleidsregels. Van deze mogelijkheid maken gemeenteraden in hun bestemmingsplannen vaak gebruik als het gaat om parkeernormen

Read more

21.02.2020
Podcast: Data en financiële instellingen

Short Reads - In deze podcast praten Roderik Vrolijk en Frederiek Fernhout van Stibbe in Amsterdam en Joran Iedema van Stibbe StartsUP-deelnemer Dyme over Fintech, PSD2 en het gebruik van data door financiële instellingen. Aan de ene kant biedt nieuwe regelgeving zoals PSD2 nieuwe mogelijkheden, aan de andere kant neemt de regeldruk en het toezicht op bescherming van persoonsgegevens toe.

Read more

12.02.2020
Van inspraakverordening naar participatieverordening op decentraal niveau

Short Reads - De regering stelt voor om de reikwijdte van de decentrale inspraakverordeningen te vergroten naar de uitvoering en evaluatie van decentraal beleid. Dat staat in een conceptwetsvoorstel dat op 9 december 2019 ter internetconsultatie is voorgelegd. Het conceptwetsvoorstel beoogt een wijziging van onder meer de Gemeentewet, de Provinciewet en de Waterschapswet.

Read more

This website uses cookies. Some of these cookies are essential for the technical functioning of our website and you cannot disable these cookies if you want to read our website. We also use functional cookies to ensure the website functions properly and analytical cookies to personalise content and to analyse our traffic. You can either accept or refuse these functional and analytical cookies.

Privacy – en cookieverklaring