De een is bekend in de recruitmentwereld als ‘professional snoop‘ en onder meer organisator van Digitaal-Werven, de ander geniet landelijke bekendheid als ICT-jurist, gespecialiseerd in internetrecht, en als Chief Knowledge Officer en opleidingsdirecteur bij ICTRecht. Samen vinden Bas van de Haterd en Arnoud Engelfriet wel iets van de AI Act, de nieuwe regelgeving waarmee Europa het gebruik van artificial intelligence wil gaan reguleren, en pellen af wat er inmiddels van de plannen bekend is.
Gouden bergen
Van de Haterd: ‘Ik heb je op mijn event horen zeggen dat er bij automatische selectie straks een wetenschappelijke basis moet zijn. Maar een cv heeft geen wetenschappelijke basis. Er staat in een cv niks dat toekomstige prestaties voorspelt. Mag je dan nog wel tools gebruiken die ooit iets uit sollicitatiebrieven of cv’s halen? Vervalt die eis als er nog wel een mens de laatste klap op geeft? En hoe moet je die basis dan controleren? Is een stempel van de COTAN voldoende, denk je? Ik heb er dus nog best veel vragen bij.’
‘Ik weet dat er niets toekomstvoorspellends in cv’s staat, maar het wordt nog vaak genoeg wél beloofd.’
Engelfriet: ‘Ik weet dat er niets toekomstvoorspellends in cv’s staat, maar het wordt vaak genoeg beloofd. Bijvoorbeeld hier of in deze tool van Talenteria, of alles dat je vindt als je zoekt met ‘AI resume screening‘. Mijn punt is: er worden vaak gouden bergen beloofd, maar reken je vooral niet rijk, want de AI Act gaat straks eisen dat je aantoont dat het werkt. Als je als recruiter een geavanceerde, bijna magische A.I.-tool beloofd wordt die binnen enkele seconden de perfecte kandidaat uit een pool van duizenden kan identificeren, een tool die zelfs subtiele nuances in sollicitatiebrieven kan detecteren en de toekomstige prestaties van een kandidaat kan voorspellen, denk ik dat die tool vanaf 2024 niet meer te verantwoorden is.’
Verbod op emotieherkenning
Engelfriet: ‘Interessant ding ook nog wel: de AI Act kreeg lastminute een extra verbod, namelijk op emotieherkenning in the workplace. Is dit volgens jou überhaupt een ding in Europa? Het mag alleen nog om veiligheidsredenen, zoals meten of een treinmachinist slaapt, maar dat lijkt me niet direct een zinnige use case in recruitment, toch?
‘Wat ik nu lees heeft de wetenschap het weer verloren van de vooroordelen van ambtenaren…’
Van de Haterd: ‘In die tabel bij die LinkedIn-post zie ik dat ze HireVue hard aanvallen. Logisch, die lagen erg onder vuur en hadden aanvankelijk heel slechte technologie. Maar de technologie die ze nu hebben is voor het grootste deel juist wetenschappelijk best wel goed. Gaat het bij die werkplekherkenning alleen om ‘werkplek’? Of ook om sollicitaties? Weet jij dat? Dat zou namelijk wel veel impact hebben op bepaalde leveranciers. Zo is er een tool die, met wetenschappelijke onderbouwing, je engagement met de baan meet. Een artikel erover stond zelfs in Nature. Ik ben wel benieuwd naar de exacte testen straks. Maar wat ik nu lees heeft de wetenschap het weer verloren van de vooroordelen van ambtenaren…’
Engelfriet: ‘De meneer die dit schreef werkte bij de EDPB, de samenwerking tussen de AVG-toezichthouders, Europese Commissie en zo nog een zwik. Dus hij zal vast middenin de regulering zitten, maar heeft zo te zien geen eigen formele wetenschappelijke expertise. Ik ken de specifieke case tegen HireVue niet precies. Dus waarom hij die tool op de korrel neemt, weet ik niet. Is het de grootste? De meest controversiële? Ik heb de definitieve tekst nog niet, maar overal wordt workplace gezegd. Ik zou dat interpreteren als werkplek én sollicitatie. Waarom zou je emoties van sollicitanten straks wél mogen testen zonder consent, terwijl je het bij je werknemers niet zou mogen?’
Wat slecht werkt, mag straks wel
Van de Haterd: ‘Groot probleem voor mij bij deze A.I.-wetgeving is dat gesproken wordt over technieken ‘die niet kunnen’, en straks dus ook niet meer mogen, maar die soms wél werken, bewezen met onafhankelijk wetenschappelijk onderzoek. Terwijl de zaken waarvan de wetenschap zegt dat je het vooral níet moet doen – cv’s laten beoordelen door mensen bijvoorbeeld, of ongestructureerde sollicitatiegesprekken – géén A.I. zijn.’
‘Het uitgangspunt van HireVue is nog altijd: als A.I. iets doet is het nooit biased, want het is geen mens.’
‘Anyway, HireVue is inderdaad groot en is in Amerika veroordeeld, weet ik. Die hebben een bepaald deel van hun product, dat ook heel slecht en biased was, moeten terugtrekken. Wat ze nu nog over hebben lijkt redelijk te kloppen, hoewel ze met ethiek het niet heel nauw nemen. Zit niet in het DNA en ze verkopen veel waarvan ik weet dat het niet klopt zoals ze het zeggen. Wat niet wil zeggen dat het product niet klopt, maar hun uitgangspunt is nog altijd: als A.I. iets doet is het nooit biased, want het is geen mens.’
Emoties niet testen
Van de Haterd: ‘Nog even terug over die emotieherkenning. Niemand zegt iets over ‘zonder consent’, toch? Maar hoe wil je voorkomen dat je emoties test? Hoe kun jij in een sollicitatiegesprek zitten en de non-verbale communicatie níet meenemen? Daar geef je toch ook geen consent voor? Met het verschil dat de mens daar dramatisch slecht in is. Dat bewijst onderzoek elke keer – en hoe meer mensen zeggen dat ze mensen kennen, hoe slechter ze er in blijken te zijn. Dus dat je consent vraagt bij A.I. lijkt me logisch, hoor, maar je kunt het in een gesprek niet níet meenemen. Dan zou ik liever A.I. met een getraind en gevalideerd algoritme dat laten doen dan elk mens zonder een psychologische opleiding.’
‘Hoe kun jij in een gesprek zitten en de non-verbale communicatie níet meenemen?’
Engelfriet: ‘Ik merk doorgaans dat het inderdaad niet gaat om de angst voor automatisering, maar dat het eerder te maken heeft met het sterk overschatten van menselijke kwaliteiten.’
Van de Haterd: ‘Grappig dat je mijn angst precies op de omgekeerde manier weergeeft. Want je zegt het al, een normaal mens kan geen 250 reacties afhandelen, dus vallen er al 200 of zo buiten de boot die dus op voorhand geen eerlijke kans krijgen. Op basis van… bewuste bias. Denk aan niet de ‘juiste’ opleiding. Advocatenkantoren in Amsterdam die alle sollicitanten van Tilburg en Maastricht afwijzen, want ‘daar is nog nooit iets goeds vandaan gekomen’. Of… noem het maar op. Wist je dat je naam een van de grootste factoren is om wel of geen baan te krijgen in Nederland? Dat is bias op naam, zónder technologie. En het moment van solliciteren (zo snel mogelijk nadat de vacature live gaat) is naar verluidt een goede tweede.’
50% mishires
Engelfriet: ‘Ik ben dan wel benieuwd, stapje terug: komt het überhaupt voor dat één medewerker 250 sollicitaties moet afhandelen? Oftewel: wat is de businesscase van zo’n A.I.-tool die je belooft het automatisch te doen? Gaat dat om zeg McDonald’s, waar iedereen bijvoorbeeld verplicht solliciteert vanuit het UWV? Of wie zijn de grote afnemers?’
‘Als 50% van jouw juridisch advies niet zou kloppen, zou je geen werk meer hebben. In recruitment accepteren we dat blijkbaar wel.’
Van de Haterd: ‘Ja, dat komt heel vaak voor. Emirates had 2.500 sollicitanten in 3 maanden voor hun customer support. Het record dat ik ken staat op 450.000 sollicitanten op 1 functie… in de Filipijnen. Unilever heeft duizenden sollicitanten op hun traineeships. De Rijksoverheid ook, zeker op ‘het klasje’ van Buitenlandse zaken. Of wat dacht je van traineeships voor omscholing? Daar móét je wel naar talenten kijken, dus met testen en A.I., of ze het potentieel hebben. En zelfs als het niet om grote aantallen gaat, wil je wel passende mensen. Van alle hires is 50% een mishire. Als 50% van jouw juridisch advies niet kloppend zou zijn, zou je geen werk meer hebben. In recruitment accepteren we dat blijkbaar wel.’
‘Bij mensen kun je uitvragen of ze discrimineren, een computer zegt alleen dat factor thx1138 nu 0,8 was. Wat moet je daarmee?’
Engelfriet: ‘Volgens mij zit de zorg meer in angst voor de algoritmes. Hoe weten we dat die níet discrimineren? Bij mensen kun je het uitvragen, een computer zegt alleen dat factor thx1138 nu 0,8 was. En wat moet je daarmee?’
Van de Haterd: ‘Klopt, maar in plaats van dat we dan goede audits bouwen of eisen….’
Ontmenselijking
Engelfriet: ‘Ook zit er vaak een gevoel van ontmenselijking in A.I. Dat een mens me fouilleert op Schiphol, het zij zo. Dat ik nu in een scanner moet staan, verplicht één houding en een raar ding draait rond, bliep, ik ben goedgekeurd, dat voelt gewoon minder prettig. Ben ik een mens of een koffer? In recruitment is dat volgens mij ook zo. In een gesprek met een peer kijken of we bij elkaar passen, prima, daar zitten soms vervelende mensen (m/v) tegenover je. Nu mag ik niet op gesprek, maar gaat een robot zeggen of ik ergens mag werken. Hoe menswaardig is dat?’
‘Een robot die gaat zeggen of ik ergens mag werken. Hoe menswaardig is dat?’
Van de Haterd: ‘Wij hebben denk ik een andere definitie van menswaardig. Ik vind die scanner juist fantastisch. Toen ik 50 kilo zwaarder was had ik op Schiphol meer dan 50% kans om gefouilleerd te worden, terwijl ik 1 op de 100 mensen uit de rij gehaald zag worden. Bij concerten en voetbalwedstrijden werd ik echt 100% gefouilleerd. Sinds ik dat gewicht kwijt ben, komt het niet meer voor. En als ik zie hoe vaak ik ben afgewezen voor banen, dan vermoed ik dat dat ook vaak is gekomen omdat ik dik was en dikke mensen zijn nu eenmaal lui en ongemotiveerd zijn (onbewuste bias).’
‘En die ene keer dat ik was aangenomen was ik een pity hire, er was echt niemand anders. En iedereen die me gesproken had zei later ook tegen me dat ik echt totaal anders was dan verwacht. Met iedereen die ‘tegen me’ gestemd had ben ik goede vrienden geworden, meerderen die ‘voor me’ waren heb ik ruzie mee gekregen. Hoe menswaardig is het als je er zo vaak, naast zit? Dan had ik 100 keer liever een systeem gehad.’
Credit beeld boven