Impact Assessment Mensenrechten en Algoritmes

Het Impact Assessment Mensenrechten en Algoritmes (IAMA) is geactualiseerd. Dit instrument, ontwikkeld door de Universiteit Utrecht, helpt overheidsorganisaties om vooraf inzicht te krijgen in de mogelijke impact van algoritmen op mensenrechten en om weloverwogen keuzes te maken bij ontwikkeling en inzet. De actualisatie is gebaseerd op gebruikersfeedback en praktijkervaringen en maakt het instrument overzichtelijker en beter toepasbaar. Het IAMA is verkort, aangevuld met een apart toelichtingsdocument en in lijn gebracht met artikel 27 van de AI-verordening, dat een grondrechteneffectbeoordeling verplicht stelt voor hoog-risico AI-systemen. Vragen die direct samenhangen met deze verordening zijn herkenbaar gemarkeerd.

Impact Assessment Mensenrechten en Algoritmes

AI en algoritmen verantwoord inzetten

Het kabinet werkt aan de ontwikkeling en toepassing van instrumenten die overheden en bedrijven ondersteunen bij het nakomen van bestaande wettelijke verplichtingen en die (daarmee) helpen AI en algoritmen op verantwoorde wijze in te zetten. Daarbij heeft het kabinet extra aandacht voor het voorkomen van inbreuken op mensenrechten. Relevante vereisten, maatregelen en instrumenten voor verantwoorde inzet van algoritmen zijn samengebracht in het Algoritmekader, dat overheden ondersteunt bij het ontwikkelen, inkopen, gebruiken en beheren van algoritmische systemen.