Algorithme d’IA dans le recrutement : les précautions RGPD à prendre

Cet article a été publié originellement sur mydatacompany.fr

L’utilisation d’une technologie d’intelligence artificielle dans le cadre du recrutement impose des règles de conformité. Ainsi le tri de CV via du Machine Learning exige la conformité RGPD du prestataire. Les données d’apprentissage sont également fondamentales.

Des algorithmes d’intelligence artificielle trouvent des applications dans les processus numériques liés au recrutement. C’est par exemple le cas afin de trier des CV et ainsi automatiser les tâches de sélection des profils.

Toutefois, le recrutement en digital pose des questions de conformité en raison des données personnelles manipulées dans ce cadre. Les entreprises doivent par conséquent respecter le Règlement général sur la protection des données (RGPD) et appliquer des mesures.

Conformité RGPD du fournisseur de l’algorithme

C’est ce que détaillait la société Blockproof à l’occasion d’un webinaire organisé en avril. Ainsi, le recours à des algorithmes d’IA repose bien souvent sur un fournisseur de technologie, un sous-traitant au sens du RGPD.

Or, avant même de sélectionner ce sous-traitant, plusieurs critères sont à contrôler. Pour Kumudithe Perera, DPO (Data Protection Officer) de Blockproof, les deux principaux sont sa conformité RPGD et les mesures de sécurité appliquées.

« Il est aussi indispensable de poser la question des données transmises par cette fonctionnalité ou cet algorithme. Si oui, il faut lister précisément les informations partagées et identifier les destinataires de ces transferts de données » ajoute-t-il.

Dans le cas d’un tri de candidatures par un algorithme, d’autres questions plus spécifiques seront abordées avant la contractualisation avec un sous-traitant. Le client doit obtenir du fournisseur qu’il explique « en termes généraux » les méthodes utilisées pour évaluer les candidats.

Des données d’apprentissage qui évitent les biais

Si la technologie exploite pour son fonctionnement du Machine Learning, l’entreprise, en tant que responsable de traitement, se doit de respecter une autre obligation. En effet, celui-ci doit se renseigner sur « le degré d’équilibre des bases de donné

Il s’agit ainsi de prévenir les biais et les risques de discrimination à l’égard de certaines catégories de personnes. Ce risque est notable en cas de sous-représentation dans les données d’apprentissage des modèles.   

Et cet aspect est loin d’être anecdotique, comme le souligne Aquibou Doucouré, PDG de Blockproof. Il rappelle en effet qu’Amazon a dû renoncer en 2018 à un algorithme conçu pour la sélection des candidatures. »

« Leur algorithme étant entrainé par des profils masculins, blancs, issus de familles aisées. Cela a généré des discriminations, en particulier à l’égard des femmes, notamment de milieux moins aisés. Le Machine Learning est une bonne technologie, mais la notion d’apprentissage est fondamentale » insiste-t-il.

Un premier tri automatisé des CV envisagé par les recruteurs

Ces enjeux devraient gagner en importance dans les organisations en raison de l’adoption croissante de l’intelligence artificielle par les ressources humaines. Un projet de cette nature est d’ailleurs étudié chez Continental, confie le recruteur Jérémy Renou.

Aujourd’hui, chaque CV est analysé par le recruteur en charge du poste. En Allemagne, le groupe réfléchit toutefois à la possibilité de mettre en place des mécanismes de sélection automatisée.

« Ils étudient l’introduction d’un algorithme pour filtrer les premiers profils, notamment pour les métiers du développement logiciel, clés pour nous. » précise le spécialiste du recrutement.