Impact Assessment Mensenrechten en Algoritmes (IAMA)
Technologie en algoritmes bieden veel kansen voor bedrijven en overheden om hun zaken efficiënter en effectiever in te richten. Er zijn echter ook valkuilen aan verbonden, zeker wanneer beslissingen op basis van algoritmes impact hebben op mensen. Er kunnen dan grondrechten in het geding zijn.
Op welke grondrechten wordt inbreuk gemaakt? Hoe groot is de kans dat dit gebeurt? Wat is de impact voor iemand? Staat die impact in verhouding tot het doel van het algoritme? En is de afweging – wel of niet acceptabel – transparant genoeg en goed uit te leggen? Dit is in een notendop de spiegel die het IAMA voorhoudt aan gebruikers van een algoritme. Zowel overheden als het bedrijfsleven kunnen gebruik maken van het IAMA.



De auteurs van het IAMA zijn prof. mr. Janneke Gerards, dr. Mirko Tobias Schäfer, Arthur Vankan en Iris Muis, allen werkzaam (geweest) aan de Universiteit Utrecht. De opdrachtgever voor de ontwikkeling is het Ministerie van Binnenlandse Zaken.
IAMA–cursusdag
Het IAMA kan in principe zelfstandig worden gebruikt door organisaties. Het kan echter zijn dat organisaties verwachten met dusdanige regelmaat gebruik te maken van het IAMA, dat zij intern een aantal mensen op willen leiden om IAMA-sessies te begeleiden. Hier hebben we een speciale IAMA-cursusdag voor ontwikkeld. Deze cursusdag kan zowel individueel bij de UU gevolgd worden, alsook in-house bij uw organisatie.
Begeleiding bij een IAMA-assessment
Het IAMA kan in principe zelfstandig worden gebruikt door organisaties om algoritmes te beoordelen die mogelijk impact hebben op grondrechten. Het kan echter zijn dat het prettig is om externe begeleiding te hebben bij het gebruik van het IAMA, bijvoorbeeld als dit de eerste keer is en uw organisatie nog wil kennismaken met het instrument. In dat geval kunt u de hulp inschakelen van de ervaren moderatoren van Data School.
Neem voor meer informatie contact met ons op via dataschool@uu.nl, of via het contactformulier.


