Un comité d’éthique externe de l’IA pour prévenir les risques

Cet article a été publié originellement sur mydatacompany.fr

Face aux risques pour les individus, mais aussi pour l’entreprise, des organisations installent des comités d’éthique de l’IA. La création d’un tel comité, notamment externe, suit cependant des règles.

Un-comité-d’éthique-externe-de-l’IA-pour-prévenir-les-risques Les récents débats autour de la reconnaissance faciale soulignent les risques inhérents à l’utilisation de l’intelligence artificielle. Ce domaine n’est toutefois pas le seul à présenter des dangers et à illustrer la nécessité d’une approche fondée sur l’éthique.

Pour Ben Hertzberg de Gartner, toute « organisation qui développe ou utilise des solutions d’IA doit être proactive et s’assurer que les dangers de l’IA ne mettent pas en péril sa marque, n’entraînent pas de mesures réglementaires, ne conduisent pas à des boycotts ou ne détruisent pas la valeur de l’entreprise.»

Un comité pour prévenir les risques, pas seulement les atténuer

En matière d’éthique de l’IA, plusieurs solutions existent. En France, CNP Assurances a par exemple créé une fonction dédiée de responsable de l’éthique. L’assureur se dote par ailleurs d’un comité pluridisciplinaire destiné à veiller à l’usage responsable des outils d’IA.

La création de ce type de comité peut en effet contribuer à prévenir les dangers découlant de l’utilisation de l’IA. Gartner rappelle par ailleurs que cet organe peut même être installé hors de l’entreprise.

Ben Hertzberg  insiste cependant sur le fait que le but d’un tel comité consiste bien à « prévenir et pas seulement atténuer les dangers de l’IA ». Cela suppose donc pour l’organisation d’informer véritablement ses représentants, sauf à créer un simple artifice et outil de communication.

« Un comité non informé, non conscient, n’est pas un comité utile. Assurez-vous que les membres de votre comité disposent de tous les détails nécessaires» prévient ainsi l’analyste. C’est l’approche suivie par Axon, qui propose des technologies à destination de la police.

Pour le fournisseur, le comité d’éthique externe est le gage d’une plus grande transparence, de responsabilité et d’une représentation dans le processus de développement de l’IA. En termes de représentation au sein du comité, Gartner insiste notamment sur un point :

Un comité d’éthique indépendant et qualifié sur l’IA

« Veillez à sur-indexer les voix qui comprennent vos consommateurs critiques et qui peuvent donner un aperçu de l’impact potentiel de vos technologies d’IA. Cela permet de filtrer les mauvaises propositions de produits d’IA avant qu’elles ne soient mises sur le marché.»

Un tel mode de gouvernance impose à l’entreprise de faire preuve d’une transparence totale à l’égard du comité d’éthique. Cette transparence s’applique à chaque projet d’IA, mais aussi à la feuille de route globale.

L’indépendance effective du comité est une évidence. Elle n’est cependant pas toujours simple à atteindre. Gartner préconise par exemple d’impliquer le comité dans la sélection des futures membres. Seront en revanche exclus les salariés de l’entreprise.

La compétence du comité est une autre évidence. « Les membres possibles comprennent non seulement des experts en IA et en machine learning, mais aussi des régulateurs, des universitaires et des praticiens de votre secteur d’activité » recommande encore le consultant.

Enfin, le cabinet préconise de fournir aux équipes internes en charge du développement de l’IA « un accès illimité au comité d’éthique, à un médiateur interne et au médiateur du comité d’éthique. »  Pour Ben Hertzberg, cela garantit la confiance entre les parties.