Un conseil externe sur l’éthique de la data et l’IA chez Orange

Pour souligner l’importance de l’éthique dans ses usages de la donnée et de l’intelligence artificielle, le groupe Orange installe un conseil de 11 experts indépendants, en vue renforcer ses relations  de confiance avec ses clients, salariés et parties prenantes, en lien avec sa raison d’être.

Un conseil externe sur l’éthique de la data et l’IA chez Orange

Un conseil externe sur l’éthique de la data et l’IA chez Orange

Pour Orange, l’éthique ne doit pas relever de la simple incantation. Le groupe se dote donc d’un organe consultatif et indépendant ayant pour mission d’accompagner la mise en œuvre par le groupe de principes éthiques encadrant l’utilisation des technologies de la donnée et d’intelligence artificielle. L’annonce de cette initiative avait été faite lors de l’édition 2018 du « Show Hello », l’événement annuel de l’opérateur pour dévoiler ses nouveautés.

L’opérateur n’est pas le premier à agir de la sorte. Déjà Malakoff Médéric Humanis dispose en interne d’un « comité des sages » validant les finalités des cas d’usage des données et de l’intelligence artificielle. Dans le secteur de l’assurance toujours, CNP Assurances nommait en 2020 Xavier Vamparys, en tant que responsable de l’éthique de l’intelligence artificielle.

L’assureur créait en outre un comité « pluridisciplinaire et ouvert » dont la mission est de placer l’humain et l’éthique au cœur de tout usage de l’IA. Autre entreprise, mais philosophie comparable chez Orange.

Principes, charte et recommandations concrètes

L’opérateur français annonce en effet la création d’un Conseil d’éthique. S’il est composé de personnalités extérieures à l’organisation, ce conseil a néanmoins à sa tête le patron d’Orange, Stéphane Richard.

Un risque pour son indépendance ? Au contraire, la démonstration que ces enjeux d’éthique seront examinés au plus haut niveau de décision. Pour s’en assurer, des personnalités externes « choisies pour leur indépendance et leur neutralité, leur expertise sur ces sujets, ainsi que la diversité de leurs profils. » Le conseil comprend juristes, philosophes, chercheurs et professionnels du public et du privé :

  1. Raja Chatila, Professeur d’IA, Robotique et éthique à Sorbonne Université,
  2. Cécile Dejoux, Professeur des Universités au Cnam,
  3. Lê Nguyên Hoang, Chercheur et médiateur scientifique en informatique à l’EPFL, Suisse,
  4. Mark Hunyadi, Professeur de philosophie morale et politique à l’Université de Louvain,
  5. Etienne Klein, Directeur de laboratoire au CEA,
  6. Jean-Noël Lafargue, Maître de conférences à l’Université Paris 8,
  7. Caroline Lequesne-Roth, Enseignante-Chercheuse Université Côte d’Azur,
  8. Claire Levallois Barth, Maître de Conférences en droit à Télécom Paris,
  9. Winston Maxwell, Directeur d’Études en droit à Telecom Paris,
  10. Sasha Rubel, Experte Internationale IA responsable et open data,
  11. Françoise Soulie-Fogelman, Consultante en IA, Ancienne professeure et dirigeante de Start-up.

Concrètement, le Conseil et ses membres accompagneront la mise en œuvre de principes éthiques encadrant les usages de la donnée et de l’IA. Avec, en premier lieu, la création d’une « charte éthique », et son adoption au sein des entités du groupe.

Orange précise aussi que le conseil aura pour fonction d’émettre « des avis prospectifs » sur l’utilisation de ces technologies. Charte, prospective, principes… le Conseil demeure en marge des opérations de l’entreprise. Un simple artifice donc ?

Le géant des télécoms veut donner des gages. Ainsi, le conseil pourra faire l’objet de saisines, qu’elles émanent de personnalités externes, de représentants de clients ou de collaborateurs de la société. Il s’agira alors d’étudier « des cas concrets » relevant de l’éthique.

Des systèmes d’IA éthiques « by design »

Par ailleurs, ces sollicitations déboucheront sur la formalisation de recommandations. Charge ensuite au comité exécutif de l’opérateur de les étudier et éventuellement de les ratifier. De l’opérationnel aussi dans la supervision des systèmes d’IA développés.

Ce conseil s’assurera de la prise en compte de l’éthique dès leur conception, le cœur de la démarche Ethical By Design. Le but est notamment de veiller à la prévention des risques de discrimination ou d’atteinte à la vie privée.

ÉTHIQUE DE L’IA : UNE MATURITÉ LARGEMENT SURÉVALUÉE SELN LE BCG

La prise en compte de l’éthique de l’IA accompagne la courbe croissante de l’industrialisation des projets Data et IA dans les entreprises. Celles-ci tendraient toutefois à surestimer leur maturité en termes d’éthique (qui repose sur sept principes que sont la responsabilité, la transparence, la justice et l’équité, la gouvernance des données et le respect de la vie privée, l’impact social et environnemental, la sûreté et la sécurité, ainsi que la combinaison entre IA et intelligence humaine).

C’est une des conclusions d’une étude internationale de BCG-Gamma, l’entité d’IA et de data science du BCG, auprès de plus de 1 000 grandes entreprises mondiales. Près de la moitié de celles revendiquant la mise en place un programme d’intelligence artificielle responsable (RAI) est, en réalité, à la traîne dans ce secteur. Et ces lacunes touchent également les organisations les plus avancées en matière de déploiement de l’IA à l’échelle.

« Environ 55 % de toutes les organisations – des retardataires aux leaders – sont moins avancées qu’elles ne le pensent. A noter que 54 % de celles qui pensent avoir pleinement mis en œuvre des programmes RAI ont surestimé leurs progrès. Ce groupe, en particulier, est préoccupant. « Parce qu’elles estiment avoir pleinement mis en œuvre des programmes RAI, elles ne sont pas susceptibles de faire des investissements supplémentaires, même si des lacunes évidentes subsistent », observe le BCG.