[Tribune] L’IA pour réduire les biais de recrutement

Dans les activités de recrutement, certaines personnes restent sceptiques face à l’usage de l’intelligence artificielle, notamment en raison de la question de sa partialité. Pour Florentin Coeurdoux, Machine learning expert chez AssessFirst, si cette préoccupation est légitime et bien documentée, il est nécessaire, avant toute prise de position, de comprendre ce qu’est l’IA, sa construction, et ses potentiels.

Florentin Coeurdoux - Machine learning expert AssessFirst

Florentin Coeurdoux, Machine learning expert chez AssessFirst

Beaucoup de craintes qui émergent ignorent en effet un fait essentiel : la source la plus profonde du biais dans l’IA est le comportement humain qu’elle cherche à reproduire. La donnée d’apprentissage – la donnée sur laquelle l’IA apprend, peut, par essence, être biaisée par le comportement humain. Toutefois, s’il est difficile de changer les comportements humains, il est beaucoup plus simple de corriger les biais algorithmiques.

A lire aussi : Faire face à la crise des talents Tech & Data sans recruter

De nos jours, les décisions de recrutement peuvent être imparfaites et injustes pour plusieurs raisons, parmi lesquelles :

  • Les biais cognitifs inconscients rendent le recrutement injuste : alors que le CV et l’entretien – notamment non structuré, sont des principes établis dans l’évaluation des candidats, de nombreuses études démontrent qu’ils sont peu fiables et valides, et qu’ils entraînent de nombreuses discriminations à l’encontre des femmes, des groupes minoritaires ou des travailleurs âgés ;
  • Une grande partie des candidats est ignorée : le succès florissant des plateformes de recrutement en ligne (e.g. Linkedin) permet de faciliter le processus de candidature et augmente le nombre de candidatures. Cette charge fait que certains recruteurs limitent leur examen aux 10-20 % des candidats considérés comme les plus prometteurs : en général, ceux qui viennent des écoles les plus réputées ;
  • Certaines IA utilisées pour le recrutement sont – il faut l’avouer, biaisées : développer des outils qui cherchent, par exemple, à automatiser la présélection sur CV, conduira probablement à des dysfonctionnements. Comme dans le cas précis d’Amazon, où l’IA a été entraînée sur la base de données biaisée et peu prédictive (celles issues du CV), et avec des personnes issues d’embauches massivement masculines.

Pour autant, faut-il en finir avec les algorithmes et l’IA en recrutement ? Ce qui a conduit au manque chronique de diversité d’aujourd’hui, et ce qui continuera à freiner la diversité, ce sont les paradigmes humains, pas l’IA. Cette dernière, quand elle est bien pensée, s’avère plutôt une solution décisive pour réduire les biais et assurer la diversité des recrutements :

  • L’IA peut éliminer un certain nombre de préjugés humains inconscients. La beauté de l’IA est que nous pouvons la concevoir pour répondre à certaines spécifications bénéfiques. Un mouvement parmi les professionnels de l’IA, comme OpenAI et le Future of Life Institute, propose déjà un ensemble de principes de conception pour rendre l’IA éthique et équitable. L’un des principes clés est que l’IA doit être conçue de manière à pouvoir être auditée et que les biais qu’elle contient puissent être éliminés ;
  • Lorsqu’elle est entraînée sur de bonnes données, qui sont aveugles aux variables de genre, d’âge ou encore de handicap (notamment les données liées à la personnalité ou aux motivations), l’IA permet de considérablement améliorer la diversité, de procéder à un rééquilibrage naturel dans les entreprises, et de faire des recrutements plus efficaces à long terme ;
  • L’IA peut automatiser (au moins une partie) des processus de présélection, et permettre aux recruteurs d’évaluer, de manière non biaisée, l’ensemble des candidats. Ce n’est qu’en utilisant un processus éthique en début de canal de recrutement que nous pourrons éliminer les biais dûs au rétrécissement du groupe de candidats, et libérer les capacités des recruteurs.

Sur le plan de la législation, l’Europe est précurseur avec son projet d’AI Act visant à introduire de nouvelles règles de transparence pour les IA de gestion du capital humain. Leur non-respect pourra donner lieu à des sanctions financières allant de 2% à 6% du chiffre d’affaires. Les mêmes normes devraient être appliquées aux outils d’embauche existants. Pourtant, en Europe, les employeurs sont aujourd’hui légalement autorisés à utiliser des évaluations traditionnelles (e.g. CV), biaisées et discriminatoires envers certains publics.

Finalement, s’il est impossible de corriger les préjugés humains, il est possible d’identifier et de corriger les préjugés de l’IA. Si nous prenons des mesures cruciales pour répondre aux préoccupations qui sont soulevées, nous pourrons alors exploiter la technologie pour diversifier les entreprises.