Beraadslagingsinstrument voor algoritmische systemen (BIAS)
We ontwikkelen momenteel BIAS: het beraadslagingsinstrument voor algoritmische systemen. Deze toolkit helpt om de ethische afwegingen en het verantwoordingsproces rondom algoritmen te stroomlijnen en te formaliseren. BIAS wordt in samenwerking met verschillende gemeenten ontwikkeld. We zoeken altijd nieuwe partners om te spreken, om mee samen te werken, te sparren, en te testen. Help je mee?
BIAS wordt voor en samen met gemeenteambtenaren ontwikkeld. Samen ontwikkelen een hulpmiddel om gestructureerd na te kunnen denken over de vragen rondom algoritmen. We zoeken altijd nieuwe input voor de ontwikkeling en komen graag met professionals uit gemeenten in contact om te praten en input te leveren. Help je mee?
Hoewel de precieze vorm dus nog niet bekend is, weten we natuurlijk al wel wat BIAS moet doen. BIAS heeft tot doel om reflectie en verantwoording over dit soort kwesties te bevorderen en te formaliseren. Tijdens het doorlopen van het proces wordt er meteen documentatie aangelegd door de deelnemers. Het effect van BIAS is vergelijkbaar met DEDA, maar dan gaat het specifiek over algoritmen.
Er zijn verschillende manieren waarop je kan bijdragen aan de ontwikkeling van BIAS. Wellicht sta je open voor een interview, of vind je het juist leuk om mee te doen aan een prototypesessie. Misschien wil je een gevorderd prototype uittesten in je organisatie, of mogen we een dagje meelopen in de praktijk om te zien hoe het eraan toe gaat. Er zijn veel manieren waarop we veel kunnen leren van je expertise. We komen dan ook graag met je in contact, zodat we samen voor de publieke sector een bewustere en verantwoordelijkere omgang met algoritmes kunnen bewerkstelligen. Wil je meedoen? Stuur een berichtje naar bias@dataschool.nl.