Gem. leestijd 3 min  523x gelezen

Moet recruitment vrezen voor de A.I.-regels van de EU?

De Europese Unie heeft alle artificial intelligence in recruitment aangemerkt als ‘hoog risico‘. Dat geldt niet alleen voor het sorteren van cv’s, maar ook voor alle digitale werving. Wat betekent dat eigenlijk voor de toekomst ervan?

Moet recruitment vrezen voor de A.I.-regels van de EU?

Het is een ware tour de force voor de Europese Unie. Zou het lukken regels te maken voor artificial intelligence, zodat de slechte algoritmes worden aangepakt, terwijl de goede buiten schot blijven? Gisteren kwamen de eerste plannen ervoor naar buiten. ‘Europe fit for the Digital Age‘, zoals het mooi wordt genoemd. ‘Een feest voor juristen’, kopte De Volkskrant al. ‘Ambitieus’, oordeelde NRC. En ook voor recruiters zijn de plannen bijzonder interessant.

De Europese Unie is de eerste ter wereld die met regels komt om misbruik van A.I. te voorkomen.

De Europese Unie is de eerste ter wereld die met regels komt om misbruik van A.I. te voorkomen. Die gaan gelden voor iedereen die A.I. maakt waarmee Europese burgers – en dus ook sollicitanten – te maken krijgen – zowel overheden als bedrijven, waaronder buitenlandse bedrijven zoals Google. Na de strenge privacywetgeving neemt Europa daarmee wereldwijd opnieuw het voortouw in de bescherming van zijn burgers.

Recruitment als uitzondering

Maar wat betekent het precies? De nieuwe regels richten zich in het bijzonder op A.I. met een ‘hoog risico’, oftewel: waar het gevoelige onderwerpen betreft. Veel concrete voorbeelden hiervan worden in de voorstellen nog niet genoemd, de meeste voorbeelden blijven redelijk abstract omschreven. Op één duidelijke uitzondering na: cv-sorting software for recruitment procedures.

Alle aspecten van A.I. met een hoog risico worden voortaan streng gereguleerd.

Alle aspecten van A.I. met een hoog risico worden voortaan streng gereguleerd, stelt de EU voor. Zo moeten de datasets die worden gebruikt om ze te trainen van ‘hoge kwaliteit’ zijn om het risico op discriminatie te minimaliseren. Ook moet onder andere de activiteit van de kunstmatige intelligentie bijgehouden worden, zodat de resultaten gegarandeerd traceerbaar zijn. Bovendien moeten er passende maatregelen komen voor menselijk toezicht en moet elk A.I.-systeem voorzien worden van gedetailleerde documentatie. Daarmee zouden autoriteiten moeten kunnen beoordelen of het systeem aan de eisen voldoet.

Ook A.I. in werving onder de loep

Het gaat daarbij overigens niet alleen om A.I.-systemen die worden gebruikt voor selectie van kandidaten. Ook werving wordt onder de loep genomen. Vacatures via A.I. bij speciale doelgroepen onder de aandacht brengen? Het zou zomaar ‘high risk’ kunnen zijn, aldus de EU, die met name systemen noemt voor ‘advertising vacancies, screening or filtering applications, evaluating candidates in the course of interviews or tests.’ Al deze systemen in het hele spectrum van werving en selectie kennen volgens Brussel dus een hoog risico, omdat ze ‘merkbare invloed hebben op toekomstige loopbaanvooruitzichten en het levensonderhoud van mensen.’

‘Hoe hoger het risico, hoe strenger de regels.’

En ‘hoe hoger het risico, hoe strenger de regels’, vatte Eurocommissaris Margrethe Vestager de nieuwe aanpak samen. Het is overigens nog niet duidelijk of en wanneer het beleidsvoorstel wordt ingevoerd. Eerst moeten het Europese Parlement en de Raad van de Europese Unie de voorstellen nog beoordelen. Waarschijnlijk heeft de EU dan ook nog een aantal jaren nodig om de mogelijke wetten te bespreken en uit te voeren. Maar dat A.I. in recruitment met argusogen wordt bekeken, zoveel is wel duidelijk.

Ook in Amerika

Dat is overigens niet alleen in Europa het geval. Ook de Amerikaanse US Federal Trade Commission waarschuwde recent bijvoorbeeld nog voor biased artificial intelligence. Bedrijven die zulke systemen gebruiken, lopen het risico dat ze daarmee wetten overschrijden die bedoeld zijn om burgers te beschermen, aldus de FTC. Ook hier worden met name recruitmentpraktijken genoemd. ‘Stel: een A.I.-ontwikkelaar vertelt klanten dat zijn product “100% unbiased hiring decisions” levert, maar het algoritme erachter is gebouwd met data die diversiteit op ras of gender missen. Dat kan juridische gevolgen hebben.’

Ook in Amerika hebben sommige overheden al ingegrepen.

Ook in Amerika hebben sommige overheden overigens al ingegrepen. Zo stelde de staat Illinois in januari 2020 al een wet in die bedrijven verplicht om het kandidaten te melden als ze A.I. gebruiken. Ook moeten bedrijven volgens deze wet kandidaten vertellen welke ‘algemene karakteristieken’ ze laten beoordelen door het geautomatiseerde systeem. En New York City overweegt beleid dat A.I.-aanbieders zou verplichten een jaarlijkse bias-audit op hun aanbod te doen.

Veel gebruikt

Volgens een wereldwijd onderzoek van Mercer gebruikt momenteel al 41 procent van de HR-afdelingen A.I.-algoritmes om via publieke data veelbelovende kandidaten te identificeren. Daarnaast zou zo’n 30 procent algoritmes toepassen om kandidaten te screenen en te evalueren.

Zo’n 30 procent van de bedrijven zou al algoritmes toepassen om kandidaten te screenen en te evalueren.

Er zijn overigens ook opiniemakers en onderzoekers die de aandacht van de wetgevers voor A.I. in recruitment zacht gezegd nogal opmerkelijk vinden. Want waar aan de ene kant van de makers van A.I. volledige transparantie wordt gevraagd over hoe hun algoritmes tot hun beslissingen komen, wordt dit immers zelden gevraagd van menselijke beslissers. En bias ligt daar minstens net zo makkelijk op de loer, zo blijkt telkens weer.

Lees ook

Hoofdredacteurbij Werf&

Peter Boerman

Hij heeft eigenlijk nog nooit een vacature uitgezet. En meer sollicitatiegesprekken gevoerd als kandidaat dan als recruiter of werkgever. Toch schrijft Peter Boerman alweer een jaar of 10 over weinig anders dan over de wondere wereld van werving en selectie, in al zijn facetten.
  • Leave behind a comment

Onze partners Bekijk alle partners