Data School

Impact Assessment Mensenrechten en Algoritmes

Technologie en algoritmes bieden veel kansen voor bedrijven en overheden om hun zaken efficiënter en effectiever in te richten. Er zijn echter ook valkuilen aan verbonden, zeker wanneer beslissingen op basis van algoritmes impact hebben op mensen. Er kunnen dan mensenrechten in het geding zijn.  

Op welke grondrechten wordt inbreuk gemaakt? Hoe groot is de kans dat dit gebeurt? Wat is de impact voor iemand? Staat die impact in verhouding tot het doel van het algoritme? En is de afweging – wel of niet acceptabel – transparant genoeg en goed uit te leggen? Dit is in een notendop de spiegel die het IAMA voorhoudt aan gebruikers van een algoritme. Zowel overheden als het bedrijfsleven kunnen gebruik maken van het IAMA.

De auteurs van het IAMA zijn prof. mr. Janneke Gerards, dr. Mirko Tobias Schäfer, Arthur Vankan en Iris Muis, allen werkzaam aan de Universiteit Utrecht. Opdrachtgever voor de ontwikkeling is het Ministerie van Binnenlandse Zaken. Vragen? Mail Iris Muis via i.m.muis@uu.nl.

Bekijk en download het IAMA

IAMA cursusdag

Het IAMA kan in principe zelfstandig worden gebruikt door organisaties. Het kan echter zijn dat organisaties verwachten zo vaak gebruik te willen maken van het IAMA, dat zij intern een aantal mensen op willen leiden om IAMA-sessies te begeleiden. Hier is een speciale IAMA cursusdag voor ontwikkeld.

IAMA Cursusdag

Begeleiding bij een IAMA-assessment

Het IAMA kan in principe zelfstandig worden gebruikt door organisaties om algoritmes te beoordelen die mogelijk impact hebben op mensenrechten. Het kan echter zijn dat het prettig is om externe begeleiding te hebben bij het gebruik van het IAMA. In dat geval kunt u de hulp inschakelen van ervaren moderatoren van Universiteit Utrecht. Neem voor meer informatie contact op met Iris Muis via i.m.muis@uu.nl

Heeft u vragen of opmerkingen? Laat het ons weten! Contact NL
Sending
Feedback

Feedback form

Feedback