Werken met algoritmes en artificial intelligence. Het lijkt in veel gevallen een uitkomst voor recruitment. Want wie kan eerlijker en rechtvaardiger kandidaten beoordelen dan een computer? Die heeft immers geen bias. Maar vaak gaat het met A.I. ook nog van ‘ai’… Want welke variabelen voer je precies in om een kandidaat op te beoordelen? Hoe laat je de computer daarbij zoeken naar relevante verbanden? En hoe zorg je daarmee dat je niet onterecht tóch weer discrimineert en mensen buitensluit van wie je dat eigenlijk niet zou willen?
Welke variabelen voer je precies in om je kandidaten op te beoordelen?
In een veelgelezen serie artikelen op recruitmenttech gaat auteur Michiel Mastenbroek nader op al dit soort vragen in. Met nadere uitleg over wat dat nou precies zijn, de algoritmes die in recruitment worden gebruikt. Maar ook met tal van voorbeelden van waar het uit de bocht is gevlogen. Een overzicht van 5 van die problemen:
#1. Gevoelig voor misleiding
Ontwerpers van algoritmes voor recruitmentsoftware staan voor een lastige uitdaging. Ze moeten regels formuleren die het algoritme kan meten en beoordelen: diploma’s, werkervaring, verkoopcijfers, enzovoorts. Maar het probleem is dat dit soort variabelen natuurlijk nooit een volledig beeld van een kandidaat geven. Iemand kan bijvoorbeeld geen diploma hebben, maar wel degelijk de juiste vaardigheden hebben dankzij zelfstudie of ervaring. Daarnaast ontstaan hiermee het risico dat kwaliteiten die lastig te vangen zijn in variabelen – zoals collegialiteit – in de digitale beoordeling ondersneeuwen.
Een simpele als-dan-structuur is voor de kandidaat vaak goed te foppen.
Bij zogeheten rule based algoritmes, oftewel: algoritmes met een als-dan-structuur, bestaat bovendien het gevaar van manipulatie en misleiding. Slimme kandidaten weten het algoritme al snel te foppen. Zo kan een sollicitant met minder goede bedoelingen bijvoorbeeld een trefwoord als ‘Oxford’ met een witte tekstkleur in de kop- of voettekst verwerken van een cv. Dan is het trefwoord voor het menselijk oog niet zichtbaar, maar zal een simpel als-dan-algoritme het toch scannen, en hierdoor mogelijk de sollicitant hoger waarderen, ook al heeft hij of zij helemaal niet aan Oxford gestudeerd.
#2. Verband niet altijd causaal
Dan maar niet meer werken met als-dan-algoritmes? Nou nee, want bij zogeheten zelflerende algoritmes ontstaan weer nieuwe risico’s. Zo bleek uit een onderzoek eens een statistisch verband tussen het liken van krulfriet op Facebook en hogere intelligentie.
Ander voorbeeld: het Amerikaanse Gilead gebruikte ooit algoritmes om via sociale media goede programmeurs op te sporen. Volgens chief scientist Vivienne Ming bleek daarbij een interesse voor Japanse manga-strips een sterke prestatievoorspeller. ‘Duidelijk geen causale relatie’, aldus Ming. Maar Gild had op dat moment wel 6 miljoen programmeurs in zijn database, en de correlatie was duidelijk. Algoritmes kunnen dus wonderlijke relaties leggen en daarmee ook mogelijk ongewenste (discriminerende) verbanden produceren. Want zou je op basis van deze cijfers iedereen die niet van manga houdt meteen afwijzen?
#3. Bias in het algoritme zelf
Het duidelijkste voorbeeld van problemen met algoritmes in recruitment is natuurlijk als de vooroordelen al in het algoritme zelf worden ingebouwd. Bekend is bijvoorbeeld het verhaal van de Britse vrouw die niet met haar pasje in de vrouwenkleedkamer bij de sportschool kon. Ze gebruikte namelijk de titel ‘Dr.’ en het algoritme herkende dit als een exclusieve indicator voor het mannelijk geslacht. Zo duidelijk zijn vooroordelen in de algoritmes echter meestal niet. Bias van softwarebouwers kan ook op veel subtielere wijze een algoritme ‘binnensluipen’.
#4. Bias in de gebruikte data
Wil je algoritmes die daadwerkelijk voorspellend vermogen hebben? Dan is allereerst de kwaliteit van je data belangrijk. Amazon kan daarover meepraten, met zijn (voormalig) algoritme dat was getraind op biased data over de werknemers van de afgelopen 10 jaar. Het algoritme had op basis daarvan geleerd dat mannen de voorkeur hadden bij technische functies. Cv’s met een referentie naar het woord ‘vrouw’, zoals ‘voorzitter vrouwenschaakclub’, belandden daardoor onderop de stapel.
Ook speelt vaak mee dat data niet-representatief zijn. Als je jouw algoritme bijvoorbeeld baseert op sociale media, hoe ga je dan om met groepen die daar minder vertegenwoordigd zijn? Over hen zijn dan minder data aanwezig, wat weer invloed heeft op het ‘trainen’ van het algoritme. Zulke algoritme kunnen door zoek- en klikgedrag van gebruikers ook bias gaan vertonen. Werkgevers klikken op vacaturewebsites bijvoorbeeld vaker op cv’s van mannen, waardoor de algoritmes van die sites op den duur denken dat cv’s van mannen relevanter zijn dan die van vrouwen. Vervolgens schoven ze daardoor de cv’s van mannen vaker naar voren.
De vooroordelen die bepaalde groepen over zichzelf hebben kunnen ook bias veroorzaken.
De vooroordelen die bepaalde groepen over zichzelf hebben kunnen ook bias veroorzaken. Als vrouwen bijvoorbeeld minder snel klikken op managementposities, omdat ze denken als vrouw toch al minder kans maken, kan het algoritme na verloop van tijd niet alleen déze vrouwen minder van dit type vacatures tonen, maar ook andere vrouwen, die wel degelijk kans denken te maken. Maar het kan ook dat vrouwen dan simpelweg de advertenties voor hogere managementposities minder te zien krijgen, zoals al bleek uit een Google-onderzoek in 2015.
#5. ‘Computer says no’
Selectieprocedures moeten altijd inzichtelijk, controleerbaar en systematisch zijn. Dit betekent onder andere dat de selectiecriteria duidelijk zijn en dat navolgbaar is wat de basis was voor de afwijzing van een kandidaat, zo luidt het voorschrift uit de ‘Wet toezicht gelijke kansen bij werving en selectie’. Dat maakt het meteen moeilijk voor veel algoritmes in recruitment. Want ‘Computer says no’ als reden voor afwijzing van een kandidaat? Het zal voor de rechter waarschijnlijk geen stand houden.
De nieuwe wet maakt het moeilijk voor algoritmes in recruitment.
Sommige algoritmes zijn zo complex dat het heel lastig is om nog werkelijk inzicht te geven in de werking ervan. Dit soort algoritmes worden vaak ook wel een black box genoemd. Maar werkgevers moeten dus wel op de hoogte zijn van de criteria die hun recruitmentsoftware gebruikt en ze moeten bij leveranciers en producenten navraag doen over mogelijke discriminatierisico’s. Direct onderscheid is bijna nooit toegestaan, maar indirect onderscheid mag wel, mits de werkgever daarvoor een goede reden kan aanvoeren. Maar die goede reden kun je dus niet zomaar aan de computer overlaten…
Kortom: algoritmes hebben de potentie het leven van de recruiter een stuk makkelijker te maken. En in verhouding tot de menselijke recruiter zal hiermee allicht minder bias in het spel zijn. Maar er zijn nog wel wat hobbels te overwinnen voordat de computer daadwerkelijk de ideale kandidaat kan aanwijzen…
Award winnen?
Zelf met mooie algoritmes aan de slag? Tot en met woensdag 7 september 2022 kan weer worden ingezonden voor de Benelux-prijzen van innovatieve recruitmentsoftware en effectieve cases: de Recruitment Tech Awards. Voor de 8e maal organiseert Recruitmenttech.nl de Recruitment Tech Awards die donderdag 3 november worden uitgereikt tijden Recruitment Tech Case_Day in Utrecht. De Recruitment Tech Awards worden wederom mogelijk gemaakt door Compagnon.
Lees ook
- Waarom is ‘Computer says NO’ eigenlijk zo eng?
- A.I. in recruitment: vloek of zegen? (6 nieuwe onderzoeken nader bekeken)
- De hele serie artikelen bij de collega’s van Recruitmenttech