Een strategisch actieplan voor het gebruik van AI door de overheid

Article
NL Law

Een paar jaren geleden hoorde je er nog nauwelijks over, maar nu kan je er bijna niet meer om heen: kunstmatige intelligentie, ook wel artificiële intelligentie (AI) genoemd. AI verwijst naar systemen die intelligent gedrag vertonen door hun omgeving te analyseren en – met een zekere mate van zelfstandigheid – actie ondernemen om specifieke doelen te bereiken. Denk aan zelfrijdende auto's of slimme thermostaten. 

Ook de overheid maakt steeds meer gebruik van AI. In een eerder artikel gingen wij al dieper in op een bepaalde vorm van AI bij de overheid: geautomatiseerde besluitvorming via algoritmes. In een ander artikel bespraken wij het Kamerdebat dat werd gevoerd naar aanleiding van het ongevraagde advies van de Raad van State waarin gevaren en pijnpunten staan beschreven van de digitalisering bij de overheid. In dat artikel signaleerden wij al  dat op 8 oktober 2019 het Strategisch Actieplan voor Artificiële Intelligentie  (Actieplan) is verschenen. In dit bericht gaan wij dieper in op dit Actieplan en beoordelen wij in hoeverre het Actieplan tegemoet komt aan de bezwaren die de Afdeling advisering in het advies signaleert.

Het Actieplan

Na andere Europese landen zoals Duitsland en Frankrijk komt nu ook het Nederlandse kabinet via dit Actieplan met een visie hoe Nederland kan profiteren van AI. Het kabinet meent dat als Nederland wil blijven meespelen in de wereldwijde economie, de ontwikkeling en toepassing van AI in Nederland moet versnellen. Het Actieplan beschrijft de koers die het kabinet wil inzetten en vormt de eerste stap om concrete acties voor de beoogde versnelling in gang te zetten.

De aanpak van het kabinet in drie sporen

In het actieplan is te lezen dat het kabinet de ontwikkeling en toepassing van AI op een zorgvuldige wijze wil versnellen via drie sporen. Bij elk spoor worden concrete acties/maatregelen beschreven die momenteel lopen of in de nabije toekomst uitgevoerd zullen worden. Spoor 1 ziet op het benutten van maatschappelijke en economische kansen op het gebied van AI. Het kabinet meent dat hiervoor publiek-private samenwerking (PPS) nodig is, waarvan de Nederlandse AI-Coalitie het belangrijkste voorbeeld is. Spoor 2 moet zorgen voor een vruchtbaar AI-klimaat. Er worden maatregelen genoemd ter aansporing van wetenschappelijk onderzoek naar AI. Ook wordt er bijvoorbeeld ingezet op betere bijscholingsmogelijkheden en wordt het kiezen voor ICT-opleidingen gestimuleerd. Wij zullen ons in dit blog verder richten op spoor 3 omdat daarin het gebruik van AI door de overheid centraal staat.

Spoor 3: versterken van de fundamenten

Spoor 3 staat in het teken van het 'versterken van de fundamenten'. Het stimuleren van de ontwikkeling en toepassing van AI klinkt wellicht als een goed idee, maar het kabinet is zich er ook terecht van bewust dat bij de toepassing van AI door de overheid negatieve effecten kunnen optreden. Denk aan geautomatiseerde besluitvorming die vanwege de achterliggende complexe algoritmes moeilijk te controleren is. Spoor 3 beschrijft verschillende beleidsmaatregelen en acties die deze negatieve effecten moeten voorkomen of verminderen. Het Actieplan richt zich op het versterken van vier fundamenten:

1.       Publieke waarden en mensenrechten beschermen

Wanneer de overheid zelf AI gebruikt, kunnen er publieke waarden en mensenrechten in het geding zijn. Het verbod op discriminatie zou bijvoorbeeld geschonden kunnen worden door bias in algoritmes, waardoor er een ongerechtvaardigd onderscheid wordt gemaakt tussen mannen en vrouwen. Ook kun je denken aan het recht op een eerlijk proces. Als ondoorzichtig is welke algoritmes zijn gebruikt bij geautomatiseerde overheidsbesluitvorming, dan ontstaat er druk op de aanvechtbaarheid en motivering van besluiten. Dat ondoorzichtige algoritmes een mogelijk probleem voor het recht op een eerlijk proces vormen, signaleerde de Afdeling advisering ook al. Zo staat een gebrek aan openbaarheid en transparantie van een algoritme in de weg aan het uitoefenen van rechten als het kunnen rectificeren of wissen van persoonsgegevens. Te denken valt ook aan de Blankenburgtunnel-uitspraak, waarin de ABRvS als norm voor verstrekking van achterliggende gegevens geeft dat bestuursorganen zogeheten maatwerkgegevens (gegevens die het bestuursorgaan zelf moet invoeren) uit eigen beweging waarneembaar moet overleggen, zodat belanghebbenden een procedure kunnen benutten om de juistheid van de gebruikte gegevens inhoudelijk te betwisten (zie hiervoor uitgebreider een eerder Stibbeblogbericht). Het kabinet noemt meerdere acties die ervoor moeten zorgen dat publieke waarden en mensenrechten beschermd blijven, waaronder:

  • de Wetenschappelijke Raad voor het Regeringsbeleid onderzoekt de impact van AI op publieke waarden;
  • onderzoek naar de kansen en risico's die zich gaan voordoen bij algoritmen die overheidsbesluiten nemen.

Wij vragen ons af of er ook concrete acties volgen om de openbaarheid en transparantie van door de overheid gebruikte algoritmes te waarborgen, naast het verrichten van verder onderzoek.

2.       Vertrouwen in AI

Het kabinet wil AI inzetten op een wijze zodat iedereen het kan vertrouwen. Hiervoor is vereist dat AI-toepassingen worden ontwikkeld binnen wettelijke en ethische kaders. Om dit mogelijk te maken, wordt er meer geld ter beschikking gesteld voor onderzoek naar verantwoorde AI-ontwikkelmethoden en toepassingen. Daarnaast vindt het kabinet het ook met het oog op vertrouwen in AI belangrijk dat de inzet van AI door overheden controleerbaar moet zijn en dat toezichthouders hier grip op krijgen. Acties in dit verband zijn:

  • het kabinet onderzoekt voor verschillende sectoren welke algoritmen worden toegepast, welke risico's dit met zich meebrengt, hoe bedrijven deze risico's beheersen en welke waarborgen hiervoor zijn;
  • het kabinet gaat onderzoeken of toezichthouders voldoende toegerust zijn om toezicht op algoritmes te kunnen houden en of er toch nog blinde vlekken zijn in het toezichtlandschap.

3.       Markten zijn open, competitief en bieden consumenten goede bescherming

Het kabinet noemt ook beleidsmaatregelen om te zorgen voor een open competitieve markt. Een competitieve markt is noodzakelijk zodat bedrijven die AI-toepassingen ontwikkelen elkaar gaan overtroeven. Op deze manier ontstaan er steeds nieuwere en betere inzichten op het gebied van AI.

4.       De veiligheid van burgers, bedrijven en overheden in Nederland beschermen

Een toenemende toepassing van AI-technologieën in de samenleving maakt dat er nieuwe soorten kwetsbaarheden en veiligheidsdreigingen ontstaan. Denk bijvoorbeeld aan cybercrime en systeemhacking. Gelet hierop onderzoekt het kabinet momenteel de impact van het gebruik van AI op de nationale veiligheid.

Een overzicht van alle acties die het kabinet noemt om deze vier fundamenten te versterken, kunt u vinden in bijlage 1 bij het Actieplan.

Ons valt op dat het Actieplan niet ingaat op een tweede probleem dat de Afdeling advisering signaleert in haar ongevraagde advies. Zij merkt op dat regels in een natuurlijke taal lang niet altijd één op één kunnen worden vertaald in een algoritme. Regels in natuurlijke taal zijn per definitie abstract, terwijl algoritmen bedoeld zijn om van toepassing te zijn op situaties met geprogrammeerde kenmerken en geen rekening kunnen houden met impliciete kennis. Deze "robotachtige gelijkheid", waarbij geen aandacht meer bestaat voor de eigenheid van een situatie, wordt niet geadresseerd in het Actieplan.

De aanvullende Kamerbrief: waarborgen tegen risico's van data-analyses door de overheid

Gelijktijdig met het Actieplan is ook een Kamerbrief van de Minister voor Rechtsbescherming verschenen. Deze brief is een aanvulling op het derde spoor van het Actieplan. De brief beschrijft dat er risico's zijn indien data-analyses en algoritmes door de overheid worden gebruikt. Risico's zijn: een gebrek aan transparantie; een groeiende complexiteit van algoritmes waardoor analyses en uitkomsten (zoals geautomatiseerde besluitvorming) steeds lastiger te controleren zijn en onregelmatigheden in algoritmes wat kan leiden tot discriminatie.

Middels de Kamerbrief wordt de Tweede Kamer geïnformeerd over mogelijke (wettelijke) waarborgen om deze risico's tegen te gaan. Het kabinet komt enerzijds met richtlijnen voor het toepassen van algoritmes door overheden. Deze richtlijnen zijn bedoeld om het inzicht in, de transparantie en de kwaliteit van algoritmes en data-analyses door overheidsinstanties te vergroten. Anderzijds geeft het kabinet aan dat zij in de toekomst bepaalde waarborgen in wetgeving wil opnemen.

Welke waarborgen noemt het kabinet? Voor een overzicht van alle waarborgen verwijzen wij u graag naar de Kamerbrief met de bijlage waarin de richtlijnen beschreven staan. Wij volstaan hier met het noemen van drie waarborgen die vanuit het oogpunt van rechtsbescherming voor de burger relevant zijn:

  • om de transparantie van het gebruik van algoritmes door overheden te vergroten, moet het toegepaste algoritme, het doel dat daarmee wordt nagestreefd en de procedure die door het algoritme is gevolgd beter worden uitgelegd aan betrokkenen. De richtlijnen geven aan dat de overheidsdienst op haar website het publiek over deze punten moet informeren. Dit komt tegemoet aan het advies van de Afdeling advisering dat openbaarheid en transparantie essentieel zijn voor een goede uitoefening van het recht op een eerlijk proces;
  • om onjuistheden in algoritmes die kunnen leiden tot discriminatie te voorkomen, mogen overheden alleen werken met algoritmes die wetenschappelijk zijn goedgekeurd. Wij vragen ons af hoe deze maatregel uitwerking krijgt. Komt er bijvoorbeeld een publiekrechtelijke instantie die gaat controleren of overheden algoritmes gebruiken die niet wetenschappelijk zijn goedgekeurd? Worden er certificaten uitgegeven voor wetenschappelijk goedgekeurde algoritmes? De Kamerbrief is op dit punt niet helder;
  • betrokkenen hebben in bepaalde situaties recht op menselijke tussenkomst als besluiten geautomatiseerd zijn genomen. Artikel 22 van de Algemene verordening gegevensbescherming (AVG) geeft nu al aan dat indien de geautomatiseerde besluitvorming noodzakelijk is voor de totstandkoming of uitvoering van een overeenkomst of berust op de uitdrukkelijke toestemming van de betrokkene, er een recht is op menselijke tussenkomst. Het kabinet wil deze waarborg ook laten gelden voor het geval dat de geautomatiseerde besluitvorming berust op een specifieke wettelijke grondslag. Mogelijk dat het kabinet hiermee het tweede probleem dat de Afdeling advisering signaleert in haar ongevraagde advies probeert te ondervangen: het voorkomen van een "robotachtige gelijkheid" waarbij geen aandacht meer bestaat voor de eigenheid van een specifieke situatie.