Logo Universiteit Utrecht

Utrecht Data School

Beraadslagingsinstrument voor algoritmische systemen (BIAS)

We ontwikkelen momenteel BIAS: het beraadslagingsinstrument voor algoritmische systemen. Deze toolkit helpt om de ethische afwegingen en het verantwoordingsproces rondom algoritmen te stroomlijnen en te formaliseren. BIAS wordt in samenwerking met verschillende gemeenten ontwikkeld. We zoeken altijd nieuwe partners om te spreken, om mee samen te werken, te sparren, en te testen. Help je mee?

Algoritmen zijn niet meer weg te denken uit onze samenleving, en ook in de publieke sector maken ze een opmars. Er wordt steeds vaker voorspeld, gecategoriseerd, geprofileerd, en/of automatisch besloten. Dat biedt grote kansen, maar brengt ook grote vraagstukken met zich mee: welke waarden en normen worden er impliciet in het systeem gebouwd? Hebben die een bepaalde (politieke) houdbaarheidsdatum? Hoe ga je om met derde partijen die voor de publieke sector een algoritme ontwerpen? Wie is wanneer verantwoordelijk als het systeem (niet) naar behoren werkt? Om handen en voeten te geven aan deze – en nog veel andere – vragen, ontwikkelen we BIAS.

BIAS wordt voor en samen met gemeenteambtenaren ontwikkeld. Samen ontwikkelen een hulpmiddel om gestructureerd na te kunnen denken over de vragen rondom algoritmen. We zoeken altijd nieuwe input voor de ontwikkeling en komen graag met professionals uit gemeenten in contact om te praten en input te leveren. Help je mee?

Hoe BIAS er precies uitkomt te zien, dat weten we nog niet. We staan aan het begin van het ontwikkelproces, en het is voor ons heel erg belangrijk dat de tool straks goed aansluit op de werkpraktijk. Om dat te garanderen, werken we samen met gemeenteambtenaren die de tool in hun werkzaamheden kunnen gebruiken. Samen met deze professionals gaan we brainstormen, prototypes testen en verbeteren. Uiteindelijk ontwikkelen we zo een instrument wat goed aansluit op de uiteenlopende werkpraktijken van de verschillende gemeenten.
Hoewel de precieze vorm dus nog niet bekend is, weten we natuurlijk al wel wat BIAS moet doen. BIAS heeft tot doel om reflectie en verantwoording over dit soort kwesties te bevorderen en te formaliseren. Tijdens het doorlopen van het proces wordt er meteen documentatie aangelegd door de deelnemers. Het effect van BIAS is vergelijkbaar met DEDA, maar dan gaat het specifiek over algoritmen.
Waar DEDA specifiek over data gaat, gaat BIAS over algoritmen. Reflecteren op de data is de eerste stap, maar vervolgens moet die data verwerkt worden: dat gebeurt met algoritmen. De twee tools complementeren elkaar, maar zijn niet inwisselbaar. DEDA gaat over de vragen rondom het wat ‘wat’ van data-analyse, BIAS gaat over het ‘hoe’.
Het ontwikkelen van BIAS is onderdeel van het promotieonderzoek van Maranke Wieringa naar ‘Algorithmic Accountability’ in Nederlandse gemeenten (zie hier een Engelse beschrijving van haar onderzoek). Zij is geïnteresseerd in hoe professionals uit gemeenten nadenken over het inzichtelijk maken van algoritmes en de verantwoording daarover, hoe ze dit nu doen, en hoe dit beter kan. BIAS komt voort uit dat laatste onderdeel, maar informeert het onderzoek ook. Doordat we met verschillende mensen uit de praktijk spreken krijgen we namelijk een steeds beter beeld van diezelfde praktijk.
Expertise uit de publieke sector is heel belangrijk om BIAS goed te kunnen ontwikkelen. Daarnaast is deze kennis en ervaring onontbeerlijk om de tool goed aan te kunnen laten sluiten op de realiteit van de werkpraktijken. We ontwikkelen BIAS daarom samen met professionals uit gemeenten, we spreken hen over, prototypen en verbeteren de ontwerpen, zodat er uiteindelijk een product ontstaat wat voor uiteenlopende gemeentepraktijken goed bruikbaar is.

Er zijn verschillende manieren waarop je kan bijdragen aan de ontwikkeling van BIAS. Wellicht sta je open voor een interview, of vind je het juist leuk om mee te doen aan een prototypesessie. Misschien wil je een gevorderd prototype uittesten in je organisatie, of mogen we een dagje meelopen in de praktijk om te zien hoe het eraan toe gaat. Er zijn veel manieren waarop we veel kunnen leren van je expertise. We komen dan ook graag met je in contact, zodat we samen voor de publieke sector een bewustere en verantwoordelijkere omgang met algoritmes kunnen bewerkstelligen. Wil je meedoen? Stuur een berichtje naar bias@dataschool.nl.

Heeft u vragen of opmerkingen? Laat het ons weten! Contact NL
Sending