Het werd groots onthaald, het akkoord dat het Europarlement en de Europese Raad na 36 uur achter elkaar onderhandelen wisten overeen te komen over regels voor artificial intelligence in Europa. Het was dan ook echt een unicum, zo viel op veel plekken te lezen, dat overheden besloten te gaan vastleggen welke juridische kanten er bij de snelle opkomst van A.I. komen kijken. En recruitment was een belangrijk onderdeel van de gesprekken.
Er komen strenge eisen voor de A.I. die wordt gebruikt om mensen te selecteren.
De uitkomst van het akkoord is dat recruitment als een zogeheten ‘high risk‘ A.I.-systeem wordt geclassificeerd. Wat dat precies gaat betekenen, moet de komende maanden verder uitonderhandeld worden. Maar duidelijk is dat er strenge eisen komen, waaronder: risicobeperkende systemen, een hoge kwaliteit van datasets, registratie van activiteiten, gedetailleerde documentatie, duidelijke gebruikersinformatie, menselijk toezicht en een hoog niveau van robuustheid, nauwkeurigheid en cyberbeveiliging.
Forse boetes
En zoals dat gaat met Europese regelgeving: er zijn ook meteen forse boetes aangekondigd. Die variëren van 35 miljoen euro tot 7% van de wereldwijde omzet, tot 7,5 miljoen of 1,5% van de omzet, afhankelijk van de grootte van het vergrijp en de omvang van de organisatie. Voor recruiters worden trouwens niet alleen matchingssystemen op basis van A.I. met name genoemd, maar ook A.I. voor biometrische identificatie en emotieherkenning. Kandidaten moeten straks bijvoorbeeld weten dat dit gebruikt wordt, en ook moet je hen actief informeren als ze bijvoorbeeld met een chatbot van doen hebben, in plaats van een mens.
‘Uitzenders en werkgevers moeten er rekening mee houden dat ze zich in het vizier van deze nieuwe regelgeving bevinden.’
Het is een niet te onderschatten stap, zegt ook iemand als John Nurthen, executive director global research van Staffing Industry Analysts. ‘Uitzenders en werkgevers moeten er rekening mee houden dat ze zich in het vizier van deze nieuwe regelgeving bevinden en uiterst voorzichtig zijn bij het gebruik van A.I.-technologie tijdens een deel van het wervingsproces. Je moet zorgen dat je leveranciers de juiste stappen ondernemen zoals gedefinieerd in de wet om de risico’s te beperken. Dit betekent onder meer dat er controlemaatregelen moeten zijn en dat trainingsdatasets relevant, representatief en foutloos moeten zijn en vooroordelen moeten kunnen detecteren. Software moet transparant werken met event logs en technische documentatie beschikbaar, terwijl A.I.-processen altijd moeten worden overzien door natuurlijke personen.’
A.I.-pact
Het politieke akkoord moet nu formeel worden goedgekeurd door het Europees Parlement en de Raad en zal 20 dagen na de bekendmaking in het Publicatieblad in werking treden. De A.I.-wet wordt dan 2 jaar na de inwerkingtreding van toepassing, met uitzondering van enkele specifieke bepalingen: verboden gelden al na 6 maanden, terwijl de regels voor A.I. voor algemene doeleinden pas na 12 maanden van toepassing worden. Om de overgangsperiode te overbruggen voordat de verordening algemeen van toepassing wordt, lanceert de Europese Commissie een ‘A.I.-pact’ met A.I.-ontwikkelaars uit Europa en de rest van de wereld om vrijwillig de belangrijkste verplichtingen van de A.I.-wet al vóór de wettelijke deadlines te implementeren.
‘Bedrijven hebben dit absoluut nog niet op hun netvlies staan.’
De wetgeving zal flinke gevolgen hebben. ‘Werkgevers die A.I.-tools gebruiken in de arbeidscontext moeten een heel proces gaan optuigen om na te gaan of die technologie aan de eisen voldoet’, zei arbeidsrechtadvocate Johanne Boelhouwer en partner bij Dentons, eerder dit jaar al tegen MT/Sprout. ‘Bedrijven hebben dit absoluut nog niet op hun netvlies staan.’
Logs bewaren
Voor de makers van de A.I.-systemen gaat het onder meer over registratie, transparantie, een conformiteitsbeoordeling en een certificering voor het bekende CE-label. Voor werkgevers gaat het erom zich ervan te verzekeren dat hun softwareleverancier aan de wettelijke eisen voldoet. ‘Werkgevers zouden geen systemen moeten gebruiken die deze beoordeling niet hebben doorstaan’, aldus Boelhouwer. ‘Ze moeten het systeem dus ook monitoren. Werkgevers zijn zelfs verplicht om de logs te bewaren die worden gegenereerd. Ze zullen er dus een aantal administratieve verplichtingen bijkrijgen.’
‘Werkgevers zijn straks zelfs verplicht om de logs te bewaren die worden gegenereerd.’
Wordt ontdekt dat zo’n systeem vooroordelen bevestigt of versterkt, dan moet het worden aangepast. Bedrijven zullen hiervoor continu een oogje in het zeil moeten houden, weet Boelhouwer. ‘A.I.-systemen zijn zelflerend. Als je een vacature hebt voor taxichauffeur en daar reageren in eerste instantie alleen mannen op van middelbare leeftijd, dan zullen de algoritmes voortaan dat soort cv’s naar voren halen. Dat moet worden gemeld bij de leverancier van het systeem én worden gecorrigeerd.’
Game-changer
De nieuwe verordening is dan ook niet zomaar een set regels, zeggen ze bijvoorbeeld bij Hubert.ai, de Zweedse aanbieder van interviewsoftware. ‘Het is een echte game-changer, die HR-professionals begeleidt naar een wereld waarin A.I. en verantwoordelijkheid stevig verankerd zijn.’ Dat is juist ook een kans, zeggen ze, voor betere selectiemechanismes, waarin de onderbuik plaatsmaakt voor datagedreven, verantwoorde, onbevooroordeelde en transparante matching. A.I. biedt in die zin juist potentieel voor ‘een verbeterd, eerlijker en efficiënter wervingsproces’. En de A.I. Act onderstreept dat volgens hen alleen maar.
‘Het recruitmentlandschap ondergaat een grondige verschuiving als gevolg van de aankomende EU AI Act.’
‘Het recruitmentlandschap ondergaat een grondige verschuiving als gevolg van de aankomende EU AI Act. Deze verordening legt de nadruk op transparantie, verantwoordingsplicht en eerlijkheid bij het gebruik van A.I. en beïnvloedt HR-praktijken in de richting van een onbevooroordeelde selectie van kandidaten in de toekomst en een betere ervaring voor iedereen.’ Dat sluit ook aan bij SHRM-onderzoek waaruit eerder bleek dat bijna 3 van de 5 organisaties die A.I. gebruiken in hun recruitment aangeven sindsdien betere mensen aan te nemen.
365.000 dollar schikking
Dat het gebruik van A.I.-systemen in recruitment niet zonder risico is, was trouwens recent weer eens in de Verenigde Staten te zien. Daar gebruikte een bijles-bedrijf een algoritme dat blijkbaar automatisch vrouwelijke sollicitanten boven de 55 en mannelijke sollicitanten boven de 60 jaar afwees. De EEOC spande een rechtszaak aan namens de bijna 200 afgewezen sollicitanten. Het bedrijf ging vervolgens akkoord met een schikking van 365.000 dollar. Toch bijna 2.000 dollar per sollicitant. Waarbij je je natuurlijk wel zou moeten afvragen hoe die selectie eruit had gezien als niet een algoritme, maar een menselijke recruiter hem had uitgevoerd…
Credit foto boven
Lees ook
- Is de nieuwe anti-bias-regelgeving van New York een vloek of juist een zegen?
- Moet recruitment vrezen voor de A.I.-regels van de EU?