Nouveau bilan pour le collectif Confiance.ai

A CentraleSupélec, sur le campus de Paris-Saclay la semaine dernière, les membres du collectif Confiance.ai ont partagé les avancées scientifiques et technologiques du programme. Retour sur ce point d’étape.

Les chiffres-clés du collectif « Confiance.ai »Où en sont les avancées du programme dédié à l’IA de confiance dans les systèmes critiques… Piloté par l’Institut francilien de Recherche Technologique (IRT) SystemX, le programme Confiance.ai est impulsé par un collectif de 13 industriels et académiques français (Air Liquide, Airbus, Atos, Naval Group, Renault, Safran, Sopra Steria, Thales, Valeo, ainsi que le CEA, Inria, les IRT Saint Exupéry et SystemX). Depuis début 2021, date de son lancement, autour de ses 13 fondateurs, un collectif de près d’une cinquantaine de partenaires industriels (dont des PME et start-up…) et académiques s’est rapidement constitué.

A lire aussi sur Alliancy : Julien Chiaroni (Grand Défi IA) : « Nous rendons opérationnelle une IA de confiance dans les entreprises »

Doté d’un budget de 45 millions d’euros sur quatre ans, ce programme vise à relever le défi de l’industrialisation de l’IA dans les produits et services critiques, dont les accidents, les pannes ou les erreurs pourraient avoir des conséquences graves sur les personnes et les biens. Au total, sur sa durée, plus de 300 personnes interviendront sur le projet représentant 150 ETP, notamment des chercheurs et ingénieurs détachés par les partenaires industriels.

Sur la période 2021-2024, l’objectif est de disposer d’une plateforme d’outils logiciels dédiée à l’ingénierie des produits et services industriels innovants intégrant de l’IA (ingénierie logicielle et système, ingénierie des données et des connaissances, ingénierie algorithmique, ingénierie de la sureté et de la sécurité et interaction homme-système). Cette plateforme concerne les secteurs de l’automobile (détection d’obstacles et de piétons…), l’aéronautique (système anticollision pour des drones), l’énergie, le numérique, l’industrie 4.0 (détection de défauts dans les chaînes de production, validation de la qualité des soudures…), la défense et la santé. Des composants d’IA qui devront aussi remplir les critères et exigences du futur « AI Act », un cadre normatif en cours de définition à l’échelle européenne, prévu d’ici à 2024.

A ce jour, plus d’une centaine de composants logiciels pour qualifier les jeux de données, les algorithmes… sont en cours de conception dans le cadre du programme, à des niveaux de maturité différents. Progressivement évalués et intégrés, ils sont également mis à disposition des partenaires afin d’en permettre la insertion dans leurs propres ateliers d’ingénierie pour ceux qui en disposent. Certains d’entre eux (Renault, Safran, Thales…) les ont d’ailleurs déjà utilisé sur plusieurs cas d’usage métier, avec des premiers retours opérationnels en vue, par exemple, de consolider une démarche globale de gestion des données (aide à l’annotation, à la visualisation des données ou encore à la mesure de l’acceptabilité opérationnelle de l’IA sur un poste industriel).

« Une douzaine de cas d’usage concrets dans le domaine de « l’IA dirigée par les données » et plus particulièrement à base d’apprentissage automatique sur des données images et sur des séries temporelles ont d’ores et déjà été validés et qualifiés, c’est-à-dire qu’ils sont partageables et réplicables dans le programme  et qu’ils posent de vraies questions autour de la confiance comme la robustesse, l’explicabilité…  D’autres uses cases industriels sont en cours d’intégration, autour du traitement du langage naturel par exemple… A partir de 2023, on attaquera le domaine de l’intelligence artificielle hybride », explique Juliette Mattioli, Senior Expert IA Thales et membre du comité de pilotage de Confiance.ai.

Dans sa version actuelle, cet ensemble d’outils propose une plateforme logicielle adressant quatre grands axes enrichie d’un cadre méthodologique permettant de garantir la confiance tout au long du cycle de vie du système (de bout en bout en respectant l’ODD – Operational Domain Design). Le premier axe consacré à la gestion du cycle de vie des données offre des composants contribuant à la qualité des jeux de données (visualisation, labellisation, augmentation…) ; le second est dédiée à l’explicabilité (afin de rendre compréhensibles par un humain les choix et décisions prises par une IA) ; le troisième est destinée à l’embarquabilité des composants d’IA qui doit permettre à la fois  d’identifier – sur la base des spécificités matérielles du système-cible – les contraintes de conception à respecter ; et d’accompagner tout au long de la réalisation et ce, jusqu’au déploiement du composant dans le système ; et la dernière concerne un ensemble de librairies dédiées à la robustesse et au monitoring des systèmes à base d’IA.

Un référentiel commun avec les Allemands

Aujourd’hui, le collectif du programme Confiance.ai souhaite se rapprocher du consortium allemand rassemblant dix partenaires industriels, académiques et de la société civile (dont Bosch, Siemens, Technische Universität Darmstadt, SAP, ITAS/KIT, iRights.Lab, Ferdinand-Steinbeis-Institut, BASF, TÜV-SÜD, IZEW Universität Tübingen) conduit par VDE, l’une des plus importantes organisations technologiques d’Europe basée en Allemagne.

Cette alliance entre des acteurs français et allemands vise à la fois à soutenir le futur règlement européen sur l’intelligence artificielle (AI Act), mais aussi à créer, courant 2023, un label commun franco-allemand sur l’IA de confiance et responsable qui sera étroitement lié aux futures normes harmonisées.

« Le collectif Confiance.ai collabore depuis de nombreux mois avec l’écosystème allemand. La force de cette alliance entre des partenaires industriels et académiques de premier plan réside dans notre volonté de promouvoir une vision commune de l’IA de confiance et responsable, et de créer un label dédié dans un premier temps au niveau franco-allemand, mais qui aura vocation à être portée à l’échelle européenne », explique Julien Chiaroni, directeur du Grand Défi IA au sein du Secrétariat général pour l’investissement.

Concrètement, ces acteurs proposeront un référentiel commun sur l’IA de confiance (caractéristiques nécessaires à la fiabilité, référentiel d’évaluation et indicateurs clés de performance). Ce référentiel, basé sur la mise en commun des travaux antérieurs réalisés par chacun, adressera les questions d’éthique, de responsabilité, de sécurité et pourra également s’étendre aux questions environnementales liées à l’IA. Cette alliance proposera enfin une structure de gouvernance, future alliance industrielle européenne sur l’IA, afin d’en assurer la promotion et la diffusion à l’échelle européenne.

« Avec notre norme et label de confiance en matière d’IA (AI Trust Standard & Label), nous avons élaboré une démarche pratique du point de vue de l’Allemagne et nous réjouissons non seulement de la faire évoluer, mais aussi de l’intégrer aux travaux français et, à terme, européens. Les potentiels de synergies sont considérables », ajoute Sebastian Hallensleben, responsable de la transition numérique et de l’IA chez VDE.

Des Européens précurseurs au niveau mondial

Dans la philosophie du programme Confiance.ai, Juliette Mattioli considère que les Français sont précurseurs, y compris au niveau international. « Les Allemands et d’autres pays ont des approches similaires, mais sont souvent dirigés par domaines d’application alors que Confiance.ai se veut générique pour le domaine des systèmes critiques. Au niveau de la normalisation, des alliances se font pour que l’écosystème européen devienne fort. Des discussions avec l’écosystème québécois sont en cours pour un programme similaire (Confiance.IA) avec des thématiques autour de la responsabilité sociétale, l’éthique et le développement durable, donc très complémentaire aux travaux menés par confiance.ai sur la confiance dans les domaine dit « safety-critical » ».

Face aux Américains (dont les Gafam) qui n’ont pas encore réfléchi de cette façon, les Européens ont donc de l’avance, et « sont même précurseurs ». « En tant que leaders d’opinion sur la définition des risques et l’embarquabilité de l’IA dans les systèmes, il faut garder cette avance sur l’IA de confiance, estime Juliette Mattioli. A nous maintenant de devenir leaders économiques. L’AI Act, dirigé par les risques, cherche – dans la même philosophie que le RGPD dans le domaine de la vie privée – à imposer la prise en compte de la confiance dans les technologies, les usages et la certification… Mais la confiance est multifacettes, d’où le programme Confiance.ai. »