IA de confiance : comment l’écosystème Tech s’empare-t-il des sujets éthiques ?

[Série IA & Confiance 4/4] Si l’impact de l’IA sur le monde du travail interroge, l’écosystème de la Tech profite de sa généralisation pour montrer patte blanche sur les sujets éthiques : la parité homme-femme, l’évolution des compétences et la reconversion professionnelle sont en première ligne de leurs préoccupations, au regard de la pénurie de profils présents sur le marché.

« L’IA est un phénomène à deux vitesses : celle de la technologie, et celle des dirigeants » rappelle Roxana Rugina, directrice exécutive du collectif Impact AI. « En entreprise, la plupart des collaborateurs utilisent déjà l’IA sans le dire à leur direction. Il est important de prévoir des chartes en interne, d’encadrer une utilisation responsable de l’IA tout en formant car tout le monde a besoin de ces compétences. »

Résoudre l’équation de l’IA à deux vitesses implique de donner confiance dans l’IA aux collaborateurs, d’expliquer comment cette ressource peut les accompagner, les faire évoluer et non les remplacer. Cette question interroge, notamment dans les services RH : alors que de nombreux débats sur la qualité et le biais des données permettant l’entraînement des IA animent l’écosystème, le secteur de la Tech entend l’utiliser afin de mieux travailler sur ses problématiques RH, notamment de recrutement de profils féminins, de formation et de reconversion professionnelle. 

« Aujourd’hui, plus de 80 métiers ont été identifiés dans le numérique : tous seront impactés par l’IA traditionnelle ou l’IA générative » affirme Maÿlis Staub, administratrice au sein de Numeum. Or, la féminisation ne progresse pas suffisamment en France et la reconversion n’est pas vue comme positive. Nous faisons le pari du marketing de l’offre : si les entreprises, à la vue du grand public, montrent qu’elles cherchent à recruter des femmes en reconversion, peut-être que cela peut accélérer le phénomène.»

Les femmes seraient plus impactées par l’IA que les hommes

Si les outils d’IA peuvent analyser, résumer, et retranscrire des textes, les compétences liées à l’interaction humaine, à l’empathie, et à la confiance resteront moins exposées à l’automatisation. Une étude de Roland Berger montre ainsi que l’IA générative pourrait entraîner jusqu’à 800 000 pertes d’emplois, mais également créer 1,4 million d’emplois, l’IA représente pour les femmes un défi. En effet, les femmes sont surreprésentées dans des professions potentiellement automatisables.

Le numérique, quant à lui, ne comprend que 30 % de femmes salariées, contre 46,8 % dans les autres secteurs d’activité

Pour répondre à ces problématiques, et donner confiance dans les transformations à venir dans le secteur, former davantage de femmes à l’informatique devient une nécessité. En effet, 57% des femmes rêvent d’une reconversion professionnelle, sous la forme d’un changement de métier, de secteur ou de statut professionnel. 

Or, cette reconversion est d’autant plus difficile pour celles ayant une famille, et ne pouvant se permettre de perdre trop de temps à se former ou à réaliser un nouveau diplôme. L’IA, à ce titre, pourrait permettre une personnalisation des programmes de formation, selon les besoins de chaque apprenant, et ainsi faciliter la montée en compétences et encourager le recrutement de profils plus juniors tout en accélérant la formation de femmes dans le domaine de l’IT. 

« L’IA est un sujet d’inclusion, qui permet à des personnalités plus éloignées de l’emploi, d’envisager des reconversions de façon plus accessible. L’IA accélère l’apprentissage, notamment pour les femmes qui rêvent d’une reconversion » complète Maÿlis Staub. « Quand on est une mère de famille, envisager une reconversion est un acte qui nécessite beaucoup de courage : si on rend la chose plus accessible en termes d’apprentissage, cela peut constituer une sacrée opportunité. »

L’IA promet également de s’intéresser aux profils déjà existants dans l’entreprise, en analysant par le deep learning les comportements et les raisons de départ de l’entreprise. Ne peut-on pas envisager qu’elle puisse détecter, à l’avenir, les profils qui auraient besoin de se développer et de changer d’activité au sein même de l’entreprise ? L’utilisation de l’IA pourrait permettre à des profils « non tech » de s’approprier des outils numériques plus facilement, à l’image du low-code et du no-code.  

Sensibiliser à un usage responsable et réfléchi de l’IA

Des initiatives comme Ethical AI ont été lancées pour promouvoir des systèmes respectueux des droits humains fondamentaux et une IA équitable. La qualité des données d’entraînement et l’absence de biais sont un axe de réflexion. En effet, les biais dans les données utilisées pour entraîner les modèles peuvent entraîner des décisions sexistes ou discriminatoires. La décision d’Amazon, en 2015, d’abandonner son système de notation par IA des CV : les candidatures reçues auparavant, sur lesquelles l’IA avait été entraînée, étant surtout masculines, l’algorithme rejetait alors les candidatures féminines en pensant qu’il ne fallait pas les sélectionner. La confiance dans l’IA des collaborateurs, comme des candidats et futurs collaborateurs, doit passer par une acculturation et un sentiment que les IA peuvent constituer de véritables partenaires au quotidien, au sein de l’activité professionnelle. 

« Une adoption à grande échelle ne veut pas dire une augmentation de la confiance dans l’IA : Il faut creuser les raisons des peurs, car lorsqu’on s’approprie un outil, on voit mieux ses limites et les raisons de nos craintes » explique Roxana Rugina. « Même des personnes qui utilisent ChatGPT tous les jours peuvent être dépassés par les questions des biais, mais en discutant et échangeant cela nous aide à comprendre comment mieux utiliser ces outils. L’IA va faire partie de notre culture, de notre quotidien. Mais il faut déjà en discuter et passer à l’action pour promouvoir une IA vertueuse. »

Enfin, une approche responsable de l’IA nécessite une approche collective impliquant des juristes, des décideurs politiques, et des experts techniques. L’Europe a, à ce titre, une opportunité de se positionner comme leader en matière de régulation éthique de l’IA, tout en encourageant l’innovation. « L’Europe peut montrer l’exemple : à l’époque, le monde entier a râlé contre le RGPD, mais aujourd’hui les autres états commencent à adopter des textes similaires » explique Frédéric Bardeau, président et cofondateur du spécialiste de la formation Simplon.co. « Nous ne sommes pas obligés de sacrifier nos données sur l’autel de l’innovation ou, à l’inverse, penser que nous ne serons pas “colonisés” en n’innovant pas. Tout n’est pas noir ou blanc. ». Et plus l’écosystème des acteurs du numérique parlera ouvertement du sujet, plus il sera en mesure de générer de la confiance plutôt que des craintes sur un avenir technologique où l’intelligence artificielle sera omniprésente.