L’IA de confiance, une recette complexe aux ingrédients multiples

[Série IA & Confiance 1/4] Réunis à la Maison de la Recherche à l’occasion d’un débat de la communauté Alliancy Connect, des spécialistes de l’IA ont présenté les différents ingrédients nécessaires pour établir la confiance dans ces technologies. 

“La conformité est une des briques de la confiance, mais il faut dissocier les deux”, assure Benjamin May, avocat fondateur d’Aramis Law Firm, le 19 mars à la Maison de la Recherche. Mais alors, sur quoi repose la confiance dans l’IA ? De nombreux attributs. Juliette Mattioli en identifie près de 130. L’experte sénior en IA chez Thales préside également le comité de pilotage de l’ambitieuse initiative Confiance.ai, qui mène un travail de fond sur le sujet. Outre le respect de la réglementation, qui parait aller de soi, elle insiste donc aussi sur la validité du système, comme l’un des socles d’une IA de confiance. “Il faut que le système exécute tout et seulement ce qu’il doit faire”, assure-t-elle. Mais elle estime également qu’il doit se montrer robuste aux attaques, que son usage peut être tracé et qu’une documentation fiable est nécessaire pour son fonctionnement. 

L’industrie et ses processus, sur lesquels reposent les avantages concurrentiels des entreprises, montre un intérêt et une méfiance particulière quant aux modèles d’IA. Peuvent-ils vraiment être dits “de confiance” ? D’autres secteurs qui manipulent des données particulièrement sensibles, comme la santé, observent eux-aussi avec retenue l’arrivée de ces technologies. “Les hôpitaux ont du mal à partager leurs données”, illustre par exemple Cédric Gouy-Pallier, chef de laboratoire au CEA-List. En tant que chercheur, il s’intéresse donc aux ressorts de l’intelligence artificielle distribuée, avec laquelle les acteurs du monde de la santé, et bien d’autres, pourraient donner accès plus facilement à certaines données aux concepteurs de modèles d’IA, et en tirer les bénéfices des analyses. “Mais pour cela, il faut des contrôles pour s’assurer que les solutions sont de confiance”, estime le chercheur. 

Ce dernier estime ainsi que le moment clef réside lors de la création du modèle. “La confiance se crée en amont dès la conception, grâce à des mécanismes qui donnent de la robustesse à la solution, et en aval, à travers la fiabilité des données utilisées”, ajoute-t-il. Pour Juliette Mattioli : “Tout n’est pas data. On va vers un modèle de plus en plus hybride et la confiance doit s’effectuer à tous les niveaux”, estime l’experte en IA chez Thales, qui met en évidence le réflexe actuel de concentrer les préoccupations sur l’origine des données, notamment du fait de la médiatisation de l’intelligence artificielle générative. 

L’intelligence artificielle générative, catalyseur du besoin de confiance 

“Aujourd’hui, l’intelligence artificielle générative ne coche aucune case de la confiance”, assène d’ailleurs Juliette Mattioli, qui estime que celle-ci peut halluciner, n’est pas reproductible et ne respecte aucune règle de transparence. Pour Hugo Hamad, Directeur Intelligence Artificielle chez Decathlon Digital, tous les acteurs qui développent les produits IA ont une responsabilité directe à assumer au niveau de leurs pratiques. Et ce n’est pas la réglementation qui changera cet état de fait. “Oubliez l’IA Act. Dans la conception de ces produits, la documentation sur laquelle ils reposent est primordiale” illustre-t-il en s’inquiétant du fait que la transparence et la documentation utile “manquent beaucoup aujourd’hui sur la chaîne de valeur du développement des IA”. 

Le focus réglementaire n’est d’ailleurs pas sans pièges. “Les IA génératives peuvent violer le RGPD”, met en évidence Juliette Mattioli. En effet, de nombreuses réglementations ne font pas la différence entre les différents types d’IA. C’est le cas de l’AI Act européen en devenir, mais aussi des lois israéliennes et américaines. La variété des cas d’usage et des pratiques amène alors de nombreux questionnements, notamment sur la protection des utilisateurs. “Il faut se poser la question de savoir si on nourrit un algorithme qui va reproduire nos données. Car, par défaut, c’est oui”, explique l’avocat Benjamin May, qui précise que selon les règles en vigueur, les utilisateurs devraient pouvoir le refuser. Le marché va s’adapter progressivement, mais en attendant, la confusion n’est pas faite pour renforcer la confiance des utilisateurs. D’où l’importance que les entreprises utilisatrices prennent elles-mêmes le sujet en main, d’après Hugo Hamad de Decathlon. 

La pression sur la question de la confiance, vient de la montée en puissance des IA générative depuis moins de deux ans, qui elle-même procède de son arrivée soudaine dans les mains du grand public. Cette situation crée une différence avec les intelligences artificielles plus classiques. “Le nombre d’utilisateurs exposés change la donne”, assure le chercheur du CEA-List, Cédric Gouy-Pallier. Le sentiment d’urgence créé ne manque pas d’inquiéter les organisations. Mais le spécialiste estime pour autant que les méthodologies permettant d’assurer la confiance ne diffèrent pas entre les différentes formes d’IA. Sur le fond, l’IA générative ne changerait donc rien ; mieux, son succès permet de mettre en avant la nécessité de s’attarder sur des aspects éthiques essentiels liés aux usages ; une réflexion dont d’autres formes d’IA pourrait aussi profiter.