Speech staatssecretaris Van Huffelen op het Nationale AI Coalitie Evenement

Toespraak van staatssecretaris Van Huffelen (Koninkrijksrelaties en Digitalisering), op het Nationale AI Coalitie Evenement in de Jaarbeurs Utrecht, op 13 april 2022.

Beste mensen,

Wat goed om zoveel betrokken mensen bij elkaar te zien. Een volle Jaarbeurs, waar het gonst van de goede gesprekken over AI.

Ik vind dat ontzettend belangrijk, omdat de ontwikkelingen hard gaan. En omdat we steeds meer leren over wat AI wel en niet kan betekenen in ons leven.

Interessant is bijvoorbeeld hoe een app als Skinvision kan helpen om huidkanker op te sporen. Of AI systemen die verdroging van onze bodem opsporen  of betonrot in bruggen  kunnen vinden. Zo wordt overal in Nederland onderzoek gedaan naar de kansen van AI.

En die kansen omarm ik graag, samen met u - en dat op een ethische en mensgerichte manier. Want als ons dat niet lukt, dan kunnen de gevolgen soms heel groot zijn.

Ik hoef daarvoor alleen maar terug te denken aan mijn vorige functie - waarin ik verantwoordelijk voor het helpen oplossen van de Toeslagenaffaire. Op mijn 1e dag in die functie ben ik ‘s avonds nog op bezoek geweest bij moeders die hierdoor geraakt waren. Hun grote gevoel van onmacht heeft mij die avond diep geraakt.  

Toen ik bij hen zat, wist ik nog niet eens de volle omvang.  Inmiddels weten we dat wel: meer dan 25.000 mensen - ouders van jonge kinderen - onterecht beschuldigd van fraude.

En velen van hen belandden in diepe armoede, omdat ze onterecht duizenden euro’s moesten terugbetalen. Na die 1e avond ontmoette ik elke week 10 van deze ouders - en luisterde naar hun verhalen.

Hun situatie was niet de schuld van AI - maar het speelde wel een rol.

Nu weet ik ook dat bij veel AI-toepassingen persoonsgegevens niet gebruikt worden voor profilering. Maar dat maakt de urgentie van stevige ethische, juridische en maatschappelijke randvoorwaarden niet kleiner. 

En daar wil ik samen met u de volgende stap in zetten.

Want hoe doen we het dan wel goed? En hoe kunnen we AI consequent gebruiken op een verantwoorde manier?

In de afgelopen jaren zijn daar belangrijke instrumenten voor ontwikkeld, gebaseerd op bestaande wetgeving. Zoals de Impact Assessment voor Mensenrechten bij de inzet van Algoritmen (IAMA). De handreiking voor Non-discriminatie by design  en de Code Kinderrechten Online. Of het Toetsingskader voor Algoritmen van de Algemene Rekenkamer. 

Deze instrumenten helpen AI-ontwikkelaars om mensenrechten centraal te stellen— van het 1e idee tot en met de uitvoering. Bijvoorbeeld door de vraag te stellen of AI überhaupt de oplossing is voor het probleem. Of door opties voor het ontwerp aan te bieden, die de kans op discriminatie of privacyschendingen zo klein mogelijk maken. Door eisen te stellen aan de transparantie van algoritmen. En door burgers en ethici te betrekken bij het bedenken, ontwerpen en evalueren.

De instrumenten zijn er dus. Onze grote uitdaging is om ze consequent toe te gaan passen.

Dat is mijn belangrijkste boodschap aan u vandaag: gebruik ze, elke dag weer. En gebruik ze ook zo, dat we ervan leren en ze kunnen verbeteren.

Daarom ben ik blij met de ELSA labs, die door de AI Coalitie zijn ontwikkeld. Hiermee kunnen we in concrete experimenten onderzoeken hoe AI positieve gevolgen voor mensen kan hebben - met stevige waarborgen voor mensenrechten.

Juist vanwege de toeslagenaffaire ondersteunen we het ELSA-lab ‘Armoede en Schulden’. Dit is een experiment van Brightlands, het CBS, de universiteit van Maastricht, overheden en bedrijven. Doel ervan is om te voorspellen in welke situaties mensen kans hebben om in armoede te raken - en om vervolgens de dienstverlening van de overheid aan deze mensen beter te maken.

Tijdens dit experiment worden de instrumenten die ik net noemde gebruikt en geëvalueerd. Het project moet een schoolvoorbeeld worden van het borgen en versterken van mensenrechten in AI-toepassingen: mensen en hun rechten staan centraal. 

Dit soort projecten zijn belangrijk, omdat de lat voor ons als overheid hoog moet liggen. Wij moeten het goede voorbeeld geven, zeker na wat er in het verleden is gebeurd.

Het gaat dus om ons gedrag, om wat we doen met de hoge standaarden die we voor onszelf stellen. En waar dat niet goed lukt, daar zal strengere wetgeving nodig zijn. Bijvoorbeeld om het gebruik van instrumenten te verplichten.

In Europa praten we op dit moment over nieuwe wetgeving om desinformatie en machtsongelijkheid aan te pakken en tegelijk te waarborgen dat AI systemen open en eerlijk worden ontwikkeld.

Wat mij betreft pakken we in deze Europese AI Act in ieder geval 3 zaken goed aan:

  1. Zoveel mogelijk verplichte certificering voor AI-systemen;
  2. Zoveel mogelijk verplichte Impact Assessments voor ontwikkelaars én gebruikers;
  3. Wetgeving én systemen waarin mensen centraal staan: dat betekent dat systemen voor mensen begrijpelijk en hanteerbaar moeten zijn. Maar ook dat mensen ergens naartoe moeten kunnen om hun recht te halen. En om ervoor te zorgen dat we onze eigen regels en instrumenten handhaven, ga ik de positie van de Autoriteit Persoonsgegevens versterken.

Zo wordt de nieuwe Nederlandse algoritmewaakhond bij hen ondergebracht en krijgt de AP meer budget om haar werk goed te doen.

Laat duidelijk zijn: wetten, regels en handhaving zijn belangrijk. Maar uiteindelijk gaat het om het gedrag van mensen, bedrijven en overheden.

Daarom wil ik ook meer ruimte voor goede en veilige alternatieven voor de grote techplatforms. Meer privacyvriendelijke apps, zoals bijvoorbeeld Signal. En meer ruimte voor inspirerende coalities als Public Spaces, dat het machtsevenwicht op internet wil herstellen.

Terug naar het ideaal van een online wereld gebaseerd op publieke waarden als privacy, autonomie en transparantie. Een internet ‘for the common good’.

Beste mensen,

Wij gaan in Nederland voor digitale technologie die mensen dient - en niet andersom. Het gaat uiteindelijk om mensen en hun fundamentele rechten.

Maar laten we dan ook samen elke dag zoeken naar manieren om die idealen in de praktijk te brengen. Door het debat te voeren over wat technologie wel en niet moet doen.

Door de instrumenten die er zijn, elke dag te gebruiken - en door nieuwe te ontwikkelen, waar die nodig zijn. Door van burgers en eindgebruikers continu te horen hoe technologie hen kan helpen. Door nieuwe samenwerkingen te zoeken, waarmee we meer leren en zo ons ethische kompas aanscherpen.

Maar zodat we ook de kansen van AI op een verantwoorde manier pakken.

De economische kansen, met producten die waarde toevoegen.

De maatschappelijke kansen, met toepassingen die ons leven beter maken.

En de kansen voor de overheid, met toepassingen die onze dienstverlening beter maken.

Ik ben tot op het bot gemotiveerd om samen met u te zorgen dat mensen - en hun rechten - het kloppende hart van AI zijn. En ik wil ook dat Nederland daarin voorop loopt in Europa en de wereld.

Ik zie een grote rol voor de AI Coalitie, als de plek waar betrokken professionals, onderzoekers, activisten en beleidsmakers samen leren, elkaar scherp houden en aanspreken waar dat nodig is.

En ik roep u dus op om ook mij daarbij scherp te houden. Want we hebben veel werk te doen.

Dank u wel.