Algorithmic bias in werving- en selectieprocedures

De afgelopen jaren is de werving- en selectieprocedures van organisaties meer gedigitaliseerd. HR-professionals zetten algoritmes steeds vaker in als hulpmiddel bij het selecteren en beslissen over welke kandidaten instromen bij een organisatie. Hoewel vaak wordt gedacht dat deze manier efficiënter en tijdbesparend werkt, is dat in sommige gevallen discutabel. Daarbij komt dat algoritmes ook een keerzijde hebben. De algoritmes zijn namelijk niet vrij van bias. Oftewel, bij het gebruik van algoritmes in selectieprocessen spelen vooroordelen, net als bij selectie door alleen HR-professionals, een rol.

Wat is een algoritme?

Algoritmes bestaan uit cijfertjes. Het zijn formules waarin informatie is opgeslagen, die als het ware ‘instructies’ voorstellen. Op basis hiervan kan de computer of een machine zelfstandig beslissingen maken of voorspellingen doen. Programmeurs ontwikkelen de algoritmes en kunnen – bijvoorbeeld in het geval van een sollicitatie – aangeven welke kenmerken leiden tot het aannemen of afwijzen van een kandidaat. 

Wat is algorithmic bias? 

We spreken van algorithmic bias als een algoritme bevooroordeeld is over bijvoorbeeld vrouwen of mensen met een migratieachtergrond op basis van hun gender en/of achtergrond. Net als mensen kunnen algoritmes biased zijn, oftewel bevooroordeeld. Dit kan weer leiden tot (nog meer) discriminatie op de arbeidsmarkt. Een groot risico van het gebruik van algoritmes is dat het een schijn van neutraliteit kan geven. Vaak wordt ervan uitgegaan dat als we bijvoorbeeld sollicitatieprocedures overlaten aan algoritmes, dat er dan geen sprake kan zijn van discriminatie of benadeling van groepen mensen. Helaas is dit niet juist. Bij het gebruik van algoritmes in selectieprocessen is het daarom  belangrijk om bewust te zijn van de mogelijke  biases. Een ander risico bij het gebruik van algoritmes voor selectieprocessen is bijvoorbeeld dat de algoritmes voorspellingen doen aan de hand van irrelevante factoren die met elkaar in verband worden gebracht. Zoals de mate van geschiktheid van de kandidaat aan de hand van de naam die deze kandidaat heeft. Uit een voorbeeld uit de praktijk blijkt dat een algoritme vooral mensen met een korte naam selecteerde als geschikte kandidaat voor de openstaande vacature. Dit had te maken met het feit dat de mensen in het bestaande team voornamelijk korte namen hebben. Het algoritme doet voorspellingen aan de hand van de data waarmee het is gevoed. Deze input van data  is gebaseerd op bestaande informatie, dus op basis van de geschiedenis. Als een team dus voornamelijk bestaat uit mannen, of om in het bovenstaand voorbeeld te blijven mensen met een korte naam, dan is de kans groot dat de output ofwel de voorspelling van een algoritme, voor potentiële nieuwe kandidaten voor de openstaande functie, ook voornamelijk mannen zullen zijn of mensen met een korte naam. 

Wat doet WOMEN Inc. op dit onderwerp?

In een verkennend onderzoek naar algorithmic bias in de werving- en selectieprocedure, onderzoekt WOMEN Inc.  in opdracht van het ministerie van Onderwijs Cultuur en Wetenschap, in hoeverre algoritmes de positie van vrouwen en gemarginaliseerde groepen benadeeld. Naast het verkennen van de risico’s, wil WOMEN Inc. zich ook richten op de kansen die algoritmes juist kunnen bieden in werving- en selectie processen. 

Wij streven naar algoritmes die zo neutraal mogelijk zijn bij de werving- en selectieprocedures, waarbij iedereen, ongeacht gender of sekse, gelijke kansen heeft. 

Gerelateerde artikelen

Zoeken

Voer uw zoektermen in om de gewenste informatie te vinden.

blijf betrokken

Schrijf je in voor onze nieuwsbrief en ontdek hoe jij kunt bijdragen aan een betere toekomst. Of meld je aan voor een van onze andere nieuwsbrieven.

Ga naar de inhoud