Gem. leestijd 3 min  200x gelezen

Hoe maak je een niet discriminerende recruiting AI?

Hoe maak je een niet discriminerende recruiting AI?

Ik ben een groot fan van het inzetten van data, algortimes en uiteindelijk kunstmatige intelligentie (AI) voor recruitment. Vanaf het eerste selectiemoment. Alle voorbeelden die ik ken heeft data, mits uiteraard goed gemeten, een (extreem) positief resultaat op de kwaliteit van de aangenomen medewerkers. Denk aan de impact die Harver heeft op het verloop in call centres (van 100%+ naar 20%- per jaar) en zo zijn er nog andere (vaak buitenlandse) cases.

Er is echter een groot gevaar als we de volgende stap in gaan. Als we de algoritmes trainen op basis van onze huidige data, trainen we ze dus ook met onze huidige vooroordelen en dat levert grote risico’s op. Op TRU Berlijn zal ik hier een sessie over hosten: “how to create a racist AI without really trying”.

Racistische kunstmatige intelligentie

Zelfs als je alle kenmerken die met discriminatie te maken hebben eruit laat, kan je een racistisch AI maken. Dit is omdat contetuele informatie wel relevant is en meegenomen wordt. We leven in een wereld vol met vooroordelen en (onbewuste) discriminatie. Als we algoritmes leren van ons gedrag, leren we dus ook ons onbewuste gedrag meenemen.

Op Github staat al een geweldig artikel (met erg veel code er in ook hoe het geprogrammeerd is en hoe dit uitpakte) hoe je door eenvoudige sentiment analyse een racistische kunstmatige intelligentie maakt. Eenvoudigweg door de associatie van namen met woorden op normale websites ga je al de mist in.

Een ander voorbeeld is het algoritme dat de rechtelijke macht in de VS adviseert over de risico’s die gedetineerde hebben bij vervroegde vrijlating. Propublica schreef er dit (extreem lezenswaardige) artikel over. Gekleurde mensen hebben een veel grotere kans om een negatief advies te krijgen bij vervroegde vrijlating dan blanken, terwijl ras niet in het algoritme zit. Korte samenvatting van de reden: een belangrijk aspect dat het algoritme meeweegt is de vraag of je andere veroordeelde criminelen in je directe omgeving hebt. Omdat de politie in de VS 100 keer meer gekleurde dan blanke mensen controleert zitten er 10 keer meer donkere mensen in de gevangenis. Het gevolg is dat een gekleurd persoon een veel grotere kans heeft om in zijn directe omgeving een andere crimineel te hebben. Dus kregen mensen met hetzelfde criminele verleden hele andere scores gebaseerd op ras.

Terug naar HR. Stel nu dat we onze AI trainen op basis van onze huidige wervingsdata. Daar gaat dit stuk op in. We kunnen hier kort over zijn: we weten dat onze huidige data veel vooroordelen kent. Zo zijn vrouwen gemiddeld ondervertegenwoordigd in managementposities. Ook is ethnische afkomst belangrijker dan een geweldsdelict om uitgenodigd te worden, bleek uit dit onderzoek. Dus als we gaan trainen op basis van bestaande data… zal ons sollicitatie algortime alleen maar racistisch kunnen zijn.

Stap 1: selecteren op data

De eerste stap om te zorgen dat we naar minder gekleurde datasets gaan, is door een diverser beleid te gaan voeren. De manier waarop we dat zouden kunnen doen is door minder te selecteren op CV’s en meer op data. Zo laat Harver zien dat er bij hen nog maar een marginaal verschil is in wie geselecteerd wordt op basis van ethnische afkomst. De scores hoe goed iemand het werk kan doen zijn leidend, harde, duidelijke, gemeten scores. Niet interpretatie van CV’s.

De selectie gebeurt door mensen, die naar de data kijken en selecteren op basis van de data. In dit geval gaat het om generieke data, niet gebaseerd op één bedrijf. Ook is de data gebaseerd op onderzoek wat iemand moet kunnen, niet om de huidige populatie na te bootsen. Bij Call Centre’s was het namelijk zo’n groot probleem dat je de huidige populatie juist niet wilde nabootsen.

Bij veel andere functies is dit een stuk lastiger, maar niet onmogelijk. Goed nagaan wat de juiste skills zijn die iemand nodig heeft, valideren op basis van de huidige populatie of dit inderdaad een onderscheidend vermogen geeft en daar de testen op baseren.

Stap 2: experimenteren

Ik heb met een AI expert gesproken over het fenomeen ‘biased data’. Ik gaf aan dat we bij HR weten dat we biased data hebben en dus algortimes niet kunnen laten leren op basis van wat we al deden. Hij gaf aan dat bij het trainen van een AI twee dingen altijd meespelen: je huidige data en je experimenten. Je moet ook vreemde eenden erin gooien, zogezegd. Je moet kijken hoe een algoritme omgaat met nieuwe data. Deze experimenten moet je bij HR data, als je weet dat je allerlei vooroordelen hebt in je wervingsproces, zwaarder laten wegen dan normaal. En je zal er waarschijnlijk langer, of misschien wel oneindig lang, mee door moeten gaan. Met een flinke weging.

Stap 3: Explain

Op mijn andere blog schreef ik al een stuk over de nieuwe functies die AI met zich meebrengt. Eén daarvan is de explainer. De Europese wetgeving verplicht organisaties zelfs om te kunnen uitleggen waarom iemand is afgewezen door een algortime. Je zal dus iemand moeten hebben die begrijpt wat het algoritme geleerd heeft. Waarom iemand niet in aanmerking komt voor de functie. Die kennis zal je intern ook moeten gebruiken. Zorg dat je begrijpt wat het algoritme geleerd heeft. Natuurlijk moet je niet meteen afwijzen dat het algoritme iets leert dat je nooit verwacht had. Dat is nu juist de kracht van AI. Wel moet je heel goed in de gaten houden dat dat ‘iets’ dat het algortime leert niet racistisch is.

  • Leave behind a comment

Onze partners Bekijk alle partners