« L'IA ne doit pas briser la relation humaine qui existe lors d'un recrutement »
Robert Vesoul est codirecteur de la chaire d'innovation numérique de l'école CentraleSupélec, et PDG d'Illuin Technology, une société spécialisée dans les applications d'intelligence artificielle pour entreprises.
Comment utilise-t-on l'intelligence artificielle dans le cadre de recrutements ?
De nombreuses utilisations épousent le parcours du candidat, depuis sa recherche d'emploi jusqu'à l'entretien. Par exemple une potentielle recrue peut échanger avec un chatbot [un robot qui simule une discussion textuelle, NDLR] sur ses compétences et envies, afin d'obtenir ensuite un débriefing et mieux cerner ses compétences « dures » et ses « soft skills ». L'intelligence artificielle (IA) peut aussi être utilisée pour traiter une grosse quantité de CV lors du « matching » entre candidats et recruteurs. Cela permet de lire les informations et de les rapprocher des exigences du poste. L'IA doit servir à sécuriser la relation, à assurer que la rencontre physique entre le candidat et le recruteur - qui partagent déjà beaucoup de choses - se fera. Enfin, mais cela demeure pour l'instant davantage du champ de la prospection, nous développons chez Illuin Technology une sorte d'escape game [un jeu où les candidats doivent trouver des indices pour sortir d'une « prison », NDLR] assisté par l'IA, qui permet une nouvelle expérience d'entretien d'embauche. L'IA regarde comment réagit le candidat, analyse un grand nombre de paramètres pour ensuite lui fournir un feed-back détaillé.
Problème : nombre d'algorithmes, derrière un « matching », reproduisent les biais de ceux qui les ont créés… Comment empêcher cela ?
C'est possible grâce à un champ de recherche particulièrement complexe, affublé du nom un peu barbare de « débiaisage ». L'idée est de réussir à faire « oublier » certaines notions à l'IA, quitte à les réintroduire ensuite dans le processus de sélection. Cela permettrait à un algorithme de ne pas prêter attention au genre des candidats, et ensuite à l'utilisateur de décider s'il veut privilégier le recrutement d'hommes ou de femmes. Cet exercice est bien plus complexe qu'il n'y paraît, car le genre ne se cache pas simplement dans le prénom : l'utilisation de certains mots, la scolarité ou encore le type d'environnement permettent de dresser des probabilités et de dire « la personne derrière ce CV est presque certainement un homme ». Et encore, le genre est relativement facile à modéliser : on est un homme ou une femme. D'autres paramètres comme l'origine ou la catégorie socioprofessionnelle sont bien plus complexes à « débiaiser ». Le défi se corse en cas de recrutement international, à cause des fortes différences culturelles qui existent entre l'Europe, les Etats-Unis ou la Chine.
Une automatisation complète du recrutement sera-t-elle un jour possible ?
L'IA est un outil certes puissant, mais seulement un outil. L'Homme doit demeurer maître à bord : en aucun cas l'IA ne doit briser la relation humaine qui existe dans le recrutement. On aura beau avoir une IA « débiaisée », si le recruteur derrière n'a pas l'esprit ouvert, on continuera à retrouver le même recrutement discriminant. C'est d'ailleurs amusant de noter que ce sont les scandales comme l'IA « sexiste » d'Amazon qui ont permis de mettre en lumière les biais du recrutement… mis en place par des humains depuis des décennies. L'IA est un atout pour faciliter le recrutement, mais sans un pilotage humain efficace, cela ne sert à rien.
Propos recueillis par Jean-Marie Cunin