Het artikel gaat hieronder verder.
De belofte van A.I. in recruitment is groot. De technologie zou vooroordelen kunnen verminderen, zorgen voor objectieve beoordelingen en zelfs vele onderdelen van sollicitatieprocessen kunnen versnellen. Maar klopt dat wel? Recent onderzoek van de Monash Business School laat een complexer beeld zien. In dit onderzoek kregen meer dan 700 sollicitanten voor een webdesignerfunctie te horen of hun sollicitatie werd beoordeeld door een mens of door A.I. De resultaten waren opvallend: vrouwen hadden een duidelijke voorkeur voor A.I. in sollicitatieprocessen, terwijl mannen juist de voorkeur gaven aan een menselijke beoordelaar.
Vrouwen vrezen eerder dat een menselijke recruiter hen misschien onterecht benadeelt.
‘Vrouwen waren significant meer geneigd om hun sollicitatie in te vullen als ze wisten dat er A.I. aan te pas zou komen, terwijl mannen minder geneigd waren om te solliciteren’, aldus professor Andreas Leibbrandt. Interessant, want vrouwen gaan er dus blijkbaar vanuit dat een algoritme eerlijker in de beoordeling is dan een mens. Waarom? Het antwoord ligt waarschijnlijk in ervaringen met menselijke vooroordelen, aldus Leibbrandt. Vrouwen vrezen dat een menselijke recruiter hen misschien onterecht benadeelt, bijvoorbeeld door vooroordelen over gender. A.I. lijkt dan een neutraal (of beter: neutraler) alternatief.
Onterechte benadeling
Een tweede experiment richtte zich op het gedrag van 500 (tech)recruiters. Zij kregen sollicitaties voorgeschoteld waarbij ze soms het geslacht van de kandidaat wisten, en soms niet. Ook kregen ze in bepaalde gevallen de beoordeling van een A.I.-systeem als referentie. Wat bleek? Als het geslacht verborgen bleef, of als de recruiters alleen de A.I.-score hadden, verdween de genderbias grotendeels tot helemaal. ‘Als recruiters het geslacht van de sollicitant kenden, scoorden ze vrouwen consequent lager dan mannen. Dit vooroordeel verdween echter volledig wanneer het geslacht van de sollicitant verborgen was’, aldus Leibbrandt.
‘De genderbias verdween volledig als het geslacht van de sollicitant verborgen was.’
Toen recruiters toegang hadden tot zowel de A.I.-score als het geslacht van de sollicitant, bleek er ook geen verschil in score tussen mannen en vrouwen. ‘Deze bevinding laat zien dat recruiters A.I. gebruiken als een hulpmiddel en anker – het helpt de genderbias in de beoordeling te verwijderen.’ Daaruit zou je kunnen concluderen: A.I. bevordert objectiviteit. Toch moeten we voorzichtig zijn met deze conclusie, zegt Leibbrandt zelf. Het Monash Business School-onderzoek richtte zich vooral op de interactie tussen mens en machine, niet op de algoritmes achter de A.I. zelf.
A.I. lijkt namelijk op papier neutraal, maar is dat in de praktijk natuurlijk niet altijd. Neem bijvoorbeeld de bevinding dat algoritmes cv’s lager beoordelen als er een gat van 2 jaar voor ouderschapsverlof op staat. Voor wie dit nog niet genoeg reden tot zorg is: dit geldt ook voor resumé blinding, waarbij zulke persoonsinformatie is verwijderd. Het algoritme herkent toch subtiele aanwijzingen, die het vervolgens verbindt aan gender. Deze ‘verborgen’ vooroordelen in A.I. ontstaan omdat veel algoritmes zijn getraind op historische data. Een A.I.-systeem dat getraind is op data uit een sector waarin mannen dominant zijn, associeert impliciet mannelijke kwaliteiten met ‘succes’. Hierdoor sijpelen subtiele vormen van discriminatie toch door, zonder dat expliciete termen als ‘man’ of ‘vrouw’ in de dataset voorkomen.
Meer diversiteit in de techindustrie
De oplossing voor dit probleem ligt niet alleen bij het algoritme zelf, maar ook bij de mensen die het ontwikkelen. De techindustrie kampt met een gigantische genderkloof: wereldwijd is slechts 20% van de technische rollen bij A.I.-bedrijven in handen van vrouwen. Meer diversiteit in A.I.-teams verbetert de representativiteit van trainingsdata en zorgt voor meer nuance in de ontwikkeling van algoritmes. Meer vrouwen in de techindustrie helpt dus om inclusievere en eerlijkere A.I.-systemen te ontwikkelen. Maar zolang dat niet het geval is, blijven bias en blinde vlekken een groot risico.
Meer vrouwen in de techindustrie helpt om eerlijker A.I.-systemen te ontwikkelen.
Als recruiter of HR-professional heb je natuurlijk te maken met deze technologieën. Hoe zet je A.I. veilig en verantwoord in? De eerste stap naar verantwoord gebruik van A.I. in werving is om een basiskennis op te bouwen over hoe deze technologie werkt en waar de beperkingen liggen. Vervolgens kun je A.I. gebruiken als hulpmiddel, maar natuurlijk altijd met een kritische blik. Dezelfde kritische blik die je natuurlijk ook al gewend bent te gebruiken bij het beoordelen van kandidaten.