Data School

Nieuws

Data School op CPDP

Auteurs: Julia Straatman en Lysa Ngouateu

Panel 1: DIY Governance! Trickle-down policy meets bottom-up activism

“To govern, or to be governed”. Dit was de slogan voor de 17e editie van de internationale CPDP (Computers, Privacy and Data Protection) conferentie in Brussel. Laatst (22-24 mei, 2024) is een delegatie van het Data School team afgereisd naar deze stad om de Universiteit Utrecht te representeren met maar liefst twee panels en een workshop! Met de aanwezigheid van zoveel (Europese) beleidsmakers, academici en andere belanghebbenden op het gebied van privacy en databescherming in de EU, was deze conferentie bij uitstek een plek om onze kennis en ideeën over data ethiek, impact assessments en publieke waarden te kunnen delen. Door te spreken met gelijkgestemden kon tevens ervaring en expertise uitgewisseld worden om in de toekomst invloed te kunnen uitoefenen op verplichtingen die voortvloeien vanuit de Europese AI Verordening. Maar wat is CPDP eigenlijk? Wat heeft Data School gedaan? En wat voor impact is er gemaakt? Lees de ervaringen hieronder!

Wat is CPDP?

CPDP staat voor Computers, Privacy and Data Protection. Het is een jaarlijkse conferentie die zich richt op databescherming, privacy, en informatietechnologie. De conferentie werd opgericht in 2007 en brengt academici, juristen, beleidsmakers, en industrie-experts van over de hele wereld al jarenlang samen om de nieuwste trends en opkomende kwesties in privacy en gegevensbescherming te bespreken​. Deze editie van CPDP was groter dan ooit tevoren: drie dagen lang konden deelnemers aansluiten bij talloze keynotes, panels, workshops, boekenclubs, filmvertoningen, kunstinstallaties, en een eigen CPDP-radio, allemaal tentoongesteld op een nieuwe, grootse locatie.

Data School op CPDP

Panel 2: Beyond Failures: Repairing the Future of AI with Public Values

Als goede start van de conferentie modereerde Mirko Tobias Schäfer een van de allereerste panels. In deze paneldiscussie werd het belang onderstreept van het in acht nemen van kwetsbare groepen in het maken en handhaven van beleid, zoals in de AI Verordening, de AVG, en andere databeschermingswetgeving. In deze beleidsinitiatieven worden goede stappen gezet, terwijl er tegelijkertijd tegenstrijdige initiatieven in worden opgenomen die juist burgerlijke vrijheden bedreigen. Dit panel bevatte zeer kundige sprekers: Hind Dekker-Abdulaziz (voormalig parlementslid van de Nederlandse Tweede Kamer), Ana Pop Stefanija (Ph.D. onderzoeker in Sociale Wetenschappen aan de Vrije Universiteit Brussel), Julia Kloiber (medeoprichter en managing director van de feministische organisatie Superrr Lab), en Sarah Chander (medeoprichter van het Equinox Initiative for Racial Justice). Zij bespraken onder andere waar de tekortkomingen van huidig beleid zich bevinden en waar de actiepunten liggen. Dit panel is opgenomen en hier terug te kijken.

Na deze vliegende start kon deze een paar uur later meteen voortgezet worden met het tweede panel georganiseerd door Data School. Ditmaal nam Iris Muis het voortouw als moderator, met Schäfer die als spreker plaatsnam naast andere prominente sprekers als Minna Ruckenstein (professor van Emerging Technologies in Society aan de Universiteit van Helsinki), Anni Ojajärvi (Senior Lead Human, Foresight & Strategy bij het Sociaal Verzekeringsinstituut van Finland), en Diletta Huyskes (Ph.D. onderzoeker in Sociologie aan de Universiteit van Milaan). In dit panel focuste de discussie zich op de fouten van AI, en wat daarvan geleerd kan worden. Naast de alom bekende grote fouten, zoals de Toeslagenaffaire, werd ook het belang van ‘alledaagse’ AI-fouten aangestipt om AI te ‘demystificeren’ en daadwerkelijk te kunnen leren van die fouten. Publieke waarden dienen een centrale rol te hebben in het verbeteren en leren van het verleden. Dit panel is tevens opgenomen en hier terug te kijken.

Workshop: Introducing FRAIA: the Fundamental Rights and Algorithms Impact Assessment

Op dag twee nam Data School een meer interactieve insteek met het organiseren van een workshop over het IAMA (Impact Assessment Mensenrechten en Algoritmes). Dit instrument is een middel om hoog-risico algoritmes te toetsen op hun (potentiële) impact op mensenrechten. Julia Straatman en Lysa Ngouateu hadden voor hun workshop in de eerste instantie plek voor 25 deelnemers, maar de animo was zo groot dat er uiteindelijk 50+ participanten aanwezig waren bij de start van de workshop! Gezien de toekomstige verplichting vanuit de AI Verordening om een ‘fundamental rights impact assessment’ uit te voeren op hoog-risico algoritmes, werd deze workshop gezien als een geschikt moment om alvast kennis te maken met hoe een dergelijk impact assessment eruit kan zien.

Hoe nu verder?

In de toekomst hoopt het Data School team met de kennis en contacten die ze hebben opgedaan op CPDP impact te maken op de praktische uitvoering van Artikel 27 van de Europese AI Verordening. Dit Artikel schrijft een verplichting voor om voor hoog-risico algoritmes een zogenoemde ‘fundamental rights impact assessment’ uit te voeren. Het IAMA is zo’n impact assessment, en is tijdens CPDP bij meerdere panelgesprekken genoemd als voorbeeld van een concrete invulling van de verplichting op Europees niveau. Het zal dus goed kunnen dat het IAMA (Engels: FRAIA) niet alleen een in Nederland bekend fenomeen wordt, maar ook in Europa op de kaart gezet wordt onder Europese beleidsmakers. Het team heeft goede hoop onze impact vergroot te hebben door het delen van kennis en expertise over zowel het IAMA als andere kernconcepten als publieke waarden, digitale ethiek en de intersectie daarvan met beleid!

Voor meer informatie over het werk van Data School kan er contact opgenomen worden met dataschool@uu.nl. Of loop langs op Drift 13!

Heeft u vragen of opmerkingen? Laat het ons weten! Contact NL
Sending
Feedback

Feedback form

Feedback