Tri de CV, présélection de candidats, analyse de leur comportement l’IA s’invite dans le domaine du recrutement. Au risque d’uniformiser les profils.
Journal La Croix – Sophie Souchard, le 09/02/2021
Gain de temps, aide à la décision… dans le domaine du recrutement, depuis quelques années, les «solutions IA» foisonnent. metamorworks/Adobe
« Je suis Randy, ton assistant de candidature, avec moi pas besoin de CV pour trouver un emploi ! » La promesse formulée par le petit robot bleu apparu à l’écran est alléchante. Alors comme ça, Randy pourrait en quelques minutes éplucher nos compétences et décortiquer notre personnalité à coups de quiz et d’analyse de données…
Ce mignon chatbot, ou « agent conversationnel », a été lancé en 2019 par le groupe d’intérim Randstad pour présélectionner des candidats.
Un exemple parmi d’autres de l’intelligence artificielle (IA) appliquée au recrutement.
Car depuis quelques années, les « solutions IA » foisonnent. Au côté des moteurs de recherche dits intelligents, comme celui de LinkedIn, figurent des outils de tri de candidatures, à l’instar de CV Catcher qui se targue de pouvoir analyser 200 curriculums à l’heure.
Certains proposent même de scanner le Web pour repérer les candidats les plus adéquats aux postes proposés.
« Ces outils peuvent nous permettre de gagner du temps pour privilégier encore plus l’humain », explique Stéphanie Lecerf, directrice des ressources humaines de Page Group France.
L’entreprise spécialisée dans le recrutement utilise notamment « Saven », un questionnaire destiné à évaluer les compétences comportementales.
« Mais cela reste une aide à la décision, insiste la DRH. On s’en sert seulement comme support pendant les entretiens.»
D’autres programmes vont plus loin et proposent d’analyser les émotions des candidats sur les entretiens vidéo : sémantique, diversité lexicale mais aussi intonations et expressions faciales…
« C’est alors détourner ces outils d’un bon usage, estime Stéphane Roder, président du cabinet de conseil AI Builders. Il y a eu une mode ces deux dernières années, mais aujourd’hui toutes les directions des ressources humaines en sont revenues. » En 2018, L’Oréal stoppait net au bout de quelques semaines son expérimentation avec Vera, un robot chargé de faire passer un premier entretien téléphonique. Car bien loin du mythe de la machine objective, dénuée de tout préjugé, ces algorithmes comportent un vrai risque de discrimination.
« Ils fonctionnent avec de l’apprentissage par renforcement, à partir de données collectées de CV précédents, souligne ainsi Carole Adam, maîtresse de conférences spécialisée en IA à l’université Grenoble-Alpes. Or si les données de base sont biaisées, l’algorithme va reproduire ces biais. »
Ainsi en 2017, Amazon décide d’abandonner son modèle de recrutement mis en place trois ans plus tôt. « Nourrie » avec les profils des personnes employées entre 2004 et 2014 – principalement des hommes –, l’IA notait systématiquement mieux les candidatures masculines, au détriment des femmes.
« Trop souvent ces algorithmes sont des boîtes noires : on ne sait pas ce qu’il se passe à l’intérieur », pointe la chercheuse en IA. « La transparence de l’algorithme est essentielle, son “auditabilité” aussi et la responsabilisation de tous les acteurs, abonde Stéphanie Lecerf.
« Le candidat doit être systématiquement informé de l’utilisation de ce type d’outil. » Avec son association À Compétence égale, elle a créé en 2019 une charte pour « fixer de grands principes protecteurs », et rappeler la nécessité de former aussi bien développeurs que recruteurs.