Stéphanie Lecerf, présidente de l’Association de lutte contre les discriminations à l’embauche, A compétence égale, et DRH France de PageGroup, lance la charte sur les algorithmes, l'intelligence artificielle et le recrutement. Objectif? Permettre à chaque recruteur d'avoir un regard critique et une connaissance précise du fonctionnement et des résultats attendus par ces outils.
Quel est l'objet de la charte sur les algorithmes, l’intelligence artificielle et le recrutement ?
Le recours à l’intelligence artificielle s’impose progressivement dans le domaine du recrutement et se développe considérablement à travers le recours à des algorithmes visant à "prédire" la réussite et la performance d’un candidat dans un futur poste ou une future entreprise.
De très nombreux traitements algorithmiques de ce type sont proposés aux recruteurs pour les aider à sélectionner des candidats mais il est parfois difficile de s’y retrouver, de comprendre comment ils fonctionnent et s’ils sont "fiables" du point de vue des résultats mais aussi de l’éthique.
L’utilisation de ces outils nécessite donc de se poser les bonnes questions. De fait, à entendre leurs concepteurs, les algorithmes éviteraient les biais discriminants des recruteurs et garantiraient leur objectivité, en éliminant le facteur humain. Ils seraient infaillibles. La réalité est beaucoup plus complexe et le risque de discrimination en recourant à ces outils, bien réel.
Pourquoi ?
Un traitement algorithme est avant tout un outil programmé et paramétré par un humain. Sa qualité dépend tout d’abord des données qui sont analysées et des variables qui sont utilisées. Le risque de biais discriminatoire est avéré si les concepteurs ne sont pas suffisamment prudents et vigilants lors de la configuration ou si l’outil déduit de lui-même certaines corrélations qui pourraient avoir un effet discriminatoire car basées directement ou indirectement sur des critères tels que le genre, l’origine sociale, l’âge ….

De plus, un modèle prédictif se base, pour prédire la réussite et la compatibilité d’un candidat avec un futur employeur, sur des données issues du passé telles que les profils considérés comme performants au sein de cette entreprise. Le recruteur s’expose alors au risque de "clonage" ou de "mimétisme" en ne recrutant que des profils similaires et risque de passer complètement à côté de bonnes candidatures plus atypiques qui ne correspondraient à aucun des pré-requis.
Il est donc indispensable que nous, recruteurs, puissions avoir un regard critique et surtout un droit à l’explication concernant les objectifs du traitement, de ses modalités, des résultats attendus ou des données utilisées : comment établit-on des liens de cause à effet entre le profil recherché et les critères de sélection ? N’y a-t-il pas des biais potentiels, non intentionnels ? Les données collectées respectent-elles la vie privée de la personne ? Sont-elles ensuite proportionnées et pertinentes au regard du processus de recrutement ?
Cette charte ne plaide pas pour l’interdiction de ces outils. Mais nous voulons, qu’à travers ce texte, tous les acteurs de recrutement s’engagent à préserver les droits fondamentaux des candidats à l‘emploi.
Qui seront les signataires ?
Nous souhaitons mobiliser l’ensemble des utilisateurs et des concepteurs de ces outils, et plus généralement tous les acteurs du recrutement. Ce qui nous paraît essentiel est que nous partagions les mêmes valeurs et la même éthique sur le sujet et que nous nous engagions, notamment envers les candidats, à avoir une approche responsable et équitable.
Est-ce que le recours aux algorithmes est une pratique répandue dans les cabinets de recrutement ? Et pour quelles étapes du process ?

Les algorithmes sont utilisés à plusieurs étapes du process de recrutement afin de mieux cibler les candidatures recherchées au sein d’importants volumes de données (réseaux sociaux, jobboards..) ou de filtrer les candidatures reçues sur la base d’un matching prédictif permettant d’explorer différemment les candidatures et de "dépasser" les limites du CV. Ils sont utilisés de plus en plus fréquemment non seulement par les intermédiaires de l’emploi mais surtout par les entreprises elles-mêmes et toutes les plateformes de recrutement.
Quelles sont les dérives possibles ? Il y a quelques temps Amazon avait reconnu avoir eu recours à un logiciel dont il s’est avéré qu’il favorisait les candidatures masculines ?

Cet échec témoigne des limites de l’intelligence artificielle et des modèles prédictifs qui ne sont pas du tout infaillibles et peuvent créer des biais discriminatoires. Dans l’exemple d’Amazon, le traitement algorithmique développait lui-même des corrélations, ce qui est en soi déjà un problème, et a déduit que les hommes étaient plus performants que les femmes sur certains postes du fait de leur présence plus nombreuse dans le passé dans les postes occupés ! Des problèmes proviennent également du fait que ces algorithmes ne prennent pas en compte l’évolution des métiers et des compétences recherchées. Prenons l’exemple d’un directeur marketing. Sa performance et sa réussite ne peuvent reposer aujourd’hui sur les mêmes critères que ceux retenus il y a cinq ans, si on intègre notamment la dimension digitale de son poste.
D’autres modèles encore arrivent, aujourd’hui, comme l’analyse des compétences fondées sur la gestuelle, les émotions. J’ai de sérieux doutes sur la fiabilité de ce type d’outils.
Comment un recruteur peut-il avoir la main sur un algorithme ?
Les recruteurs doivent absolument se faire expliquer le traitement algorithmique de manière très claire et compréhensible et être en mesure eux-mêmes de l’expliquer et de le justifier auprès de leurs candidats et de leurs clients, internes ou externes. Il ne s’agit pas d’en comprendre les spécificités techniques, ce qui relève des compétences d’un data scientist, mais que le fonctionnement et les résultats attendus soient intelligibles pour tous.
Afin de se prémunir contre les risques de discrimination, ils doivent aussi veiller à ce que ces outils reposent uniquement sur une évaluation objective et fiable des aptitudes et compétences techniques, des compétences comportementales et des motivations du candidat et ce, à partir de données collectées de manière légitime.
Ils doivent également être attentifs à ce que les impacts des algorithmes soient régulièrement contrôlés et audités, que les biais discriminatoires soient testés et ils doivent conserver la pleine maitrise des paramétrages.
Ce qui, à mon sens, est également essentiel est que les recruteurs appliquent un principe de précaution dans la lecture et l’analyse des résultats et qu’ils soient vigilants sur le fait qu’une corrélation entre deux variables, comme dans le cas d’Amazon, ne prouve pas forcément une causalité.
Il faut, enfin, s’assurer que les algorithmes soient des outils d’aide à la décision qui ne substituent en aucun cas à la décision humaine dans la sélection des candidats.
Faut-il légiférer sur les algorithmes ?

Il est vrai que les Etats-Unis réfléchissent à un projet de loi sur l’encadrement des algorithmes. Faut-il suivre cet exemple ? Pour l’heure, il est nécessaire d’impulser une prise de conscience afin que l’ensemble des acteurs de l’emploi se mobilise sur ce sujet. C’est l’objectif de la charte dont l’idée est de définir des principes, acceptés à la fois par l’utilisateur et le concepteur, qui garantissent une approche responsable.
A défaut, quels sont les moyens de recours candidat ?
Il peut solliciter des explications auprès de l’entreprise. Elle est, en effet, tenue de l’informer sur les outils utilisés. Et contester, auprès du Défenseur des Droits ou des juridictions compétentes, une décision qui ne reposeraient pas sur des critères objectifs ou légitimes et qui lui ferait perdre une chance d’accéder à un emploi.
Les points clefs de la charte |
---|
La charte comporte 13 principes parmi lesquels: - Avoir une approche responsable et équitable et avoir recours à des traitements respectant les principes de neutralité et transparence; - Informer clairement le candidat; - Veillez à ce que les données utilisées par les algorithmes aient été collectées de manière légitime, respectent la vie privée et la dignité des personnes, soient limitées à ce qui est nécessaire; - Régulièrement analyser et contrôler les impacts du traitement; - Appliquer un principe de précaution dans la lecture et l’analyse des résultats basés sur les algorithmes, en particulier en cas de recours à du "matching" prédictif; - Rendre les algorithmes auditables; - Veiller à ce que les algorithmes soient des outils d’aide à la décision qui ne substituent en aucun cas à la décision humaine dans la sélection des candidats. |
Gestion du personnel
La gestion des ressources humaines (ou gestion du personnel) recouvre plusieurs domaines intéressant les RH :
- Le recrutement et la gestion de carrière (dont la formation professionnelle est un pan important) ;
- La gestion administrative du personnel ;
- La paie et la politique de rémunération et des avantages sociaux ;
- Les relations sociales.
Nos engagements
La meilleure actualisation du marché.
Un accompagnement gratuit de qualité.
Un éditeur de référence depuis 1947.
Des moyens de paiement adaptés et sécurisés.