Comment Thales intègre les briques du programme Confiance.AI dans ses solutions

 

Arrivé à son terme en 2024, le programme Confiance.AI continue d’alimenter l’ingénierie de l’IA en France à travers de nouveaux dispositifs de recherche, des initiatives industrielles et des formations dédiées. Thales fait partie des acteurs qui prolongent cette dynamique, en intégrant certaines briques du programme au sein de son dispositif cortAIx et de ses applications liées aux systèmes critiques.

 

Piloté par l’institut de recherche technologique IRT SystemX, le programme de recherche Confiance.AI s’est achevé en septembre 2024, après quatre années d’existence. Ses travaux se prolongent aujourd’hui de plusieurs manières. Tout d’abord, à travers un programme de recherche intitulé « CSIA » (Confiance dans les systèmes d’IA), qui étend le périmètre initial à l’IA hybride et générative. L’objectif est de développer les prochaines briques technologiques nécessaires aux systèmes critiques, en s’appuyant sur un consortium d’industriels. En parallèle, l’European Trustworthy AI Association assure la continuité industrielle du programme en maintenant les méthodes, outils et codes produits, en structurant une communauté dédiée à l’ingénierie de l’IA et en contribuant aux travaux de standardisation européens et internationaux.

Deux autres prolongements complètent cette dynamique. La start-up SafenAI, issue du CEA et de l’IRT SystemX, se définit comme une plateforme SaaS de gouvernance du cycle de vie des composants IA. Elle accompagne la montée en maturité des composants et traite des sujets non couverts comme la traçabilité, essentielle pour répondre aux obligations réglementaires. Enfin, un mastère spécialisé (MS) dédié à l’ingénierie de l’IA est proposé par CentraleSupélec. Il a été conçu pour diffuser ces pratiques au sein des organisations et former des ingénieurs capables d’intégrer ces nouvelles méthodes dans leurs environnements industriels.

 

CortAIx, colonne vertébrale de l’IA chez Thales

 

Membre fondateur du programme Confiance.AI, Thales structure sa démarche dans l’IA autour d’un dispositif appelé « cortAIx ». Ce dernier a vocation à amplifier l’intégration de l’IA dans tous les secteurs d’activité de l’entreprise (défense, spatial, aéronautique, cybersécurité, identité numérique). CortAIx rassemble un des principaux laboratoires intégrés dans le domaine de l’IA en Europe (cortAIx Lab), mais aussi une usine technologique en IA (cortAIx Factory). Cette dernière vise à accélérer la qualification et l’industrialisation des outils de développement de l’IA ainsi que les cas d’usage pour les données des systèmes. Enfin, cortAIx intègre une troisième entité, cortAIx Sensors, qui correspond à toutes les capacités IA dans les capteurs (sonars, radars, radios, optronique) au sein des activités essentiellement « défense » du groupe.

« CortAIx Factory a pour mission de délivrer des solutions, en particulier pour les systèmes. Il vise aussi à délivrer le SLM (System Lifecycle Management) des solutions à base d’IA. Nous retrouvons ici la chaîne MLOps, dont beaucoup de méthodes et d’outils viennent de Confiance.AI, mais aussi d’autres projets, qu’ils soient externes ou internes à Thales. Cette chaîne outillée est là pour assurer l’ensemble du cycle de vie d’un système ou d’une solution à base d’IA, ce qui va de la spécification et de la conception jusqu’au maintien en conditions opérationnelles, en passant par la garantie de conformité aux standards et aux réglementations », déclare Juliette Mattioli, VP Artificial Intelligence Fellow chez Thales.

 

De la démonstration de valeur aux déploiements dans les systèmes critiques

 

Pour qu’une brique de confiance issue du programme Confiance.AI soit intégrée au sein des solutions de Thales, il faut tout d’abord que les équipes en interne démontrent sa valeur. Une fois cette étape franchie, un comité de pilotage décide si cette brique sera utilisable par l’ensemble du groupe et si, par conséquent, elle pourra rentrer dans sa chaîne outillée pour l’ingénierie de l’IA. « Nous avons utilisé certaines briques de Confiance.AI dans le cadre par exemple du contrôle du trafic aérien pour minimiser l’impact des délais de départ des avions sur la gestion de l’aéroport et la planification des vols à l’arrivée. Cette optimisation doit être robuste au bruit, à la météo. Elle doit surtout être conforme à des standards, en particulier celui de l’aéronautique, et à l’AI Act qui nous demande une certaine transparence. Enfin, elle doit être extrêmement précise, car nous sommes dans la catégorie ‘safety-critical’ », note Juliette Mattioli.

Autre exemple : les algorithmes de détection d’objets de Thales ont bénéficié de l’intégration de certaines briques issues du programme Confiance.AI. Thales a besoin de ces algorithmes dans beaucoup d’applications, en particulier quand le groupe réalise de la surveillance sur le champ de bataille ou dans d’autres domaines. « Typiquement, quand nous devons détecter des avions sur des pistes, puis les qualifier et les identifier, nous ne possédons pas forcément les données sur tous les types d’avions et leur position. Le programme Confiance.AI nous a permis d’utiliser certains outils pour labelliser les images qui nous servent pour l’apprentissage, mais aussi – dans les cas où nous n’avons pas assez d’images -, d’utiliser des techniques d’IA générative pour augmenter le jeu de données, tout en qualifiant ce jeu de données. Cela permet d’obtenir des jeux de données de très bonne qualité », conclut Juliette Mattioli.