À l’occasion d’un sommet sur l’IA de confiance, plusieurs acteurs européens se sont réunis pour discuter de leur difficulté à mettre en place des applications d’IA aux raisonnements opaques. De Siemens à Decathlon, la confiance, qu’elle soit externe ou interne, apparaît comme une condition indispensable à toute intégration réussie de ces technologies.
« Les personnes ne travaillant pas sur l’aspect technique des applications d’IA ont tendance à avoir des attentes énormes, à penser que l’intelligence artificielle va résoudre presque tous les problèmes du monde », confie Shalina Misra, responsable de la transformation numérique stratégique à Sopra Steria. Lors d’une table ronde sur l’IA de confiance organisée par l’European Trustworthy AI Association, celle-ci a longuement évoqué ce décalage existant entre les attentes du public et la réalité industrielle. Notamment dans les domaines critiques, la question de la confiance et de la transparence peut bloquer sa mise en place ainsi que son adoption. On parle ici d’explicabilité, à savoir la capacité de mettre en relation et de rendre compréhensibles les éléments pris en compte par le système d’IA pour la production d’un résultat.
Comprendre pour convaincre
Thomas Wazschulzik, responsable de la R&D chez Siemens Mobility, a fait part lors de la table ronde d’un exemple : l’impossibilité pour le domaine ferroviaire d’accepter une IA sans comprendre les causalités de son comportement fonctionnel. « Contrairement à l’industrie automobile, qui se contente d’accepter la base de connaissances et d’effectuer des tests statistiques, le domaine ferroviaire est plus conservateur. Nous avons besoin d’une bien meilleure compréhension interne. L’explicabilité est donc très importante », a-t-il expliqué. Pour mettre en place un système de train automatisé à l’IA, l’entreprise allemande a dû prouver la fiabilité de sa détection d’obstacles à la Deutsche Bahn (l’équivalent allemand de la SNCF). Originellement totalement réfractaire au projet, l’entreprise ferroviaire publique allemande profite désormais d’un service résolvant partiellement la pénurie de conducteurs de train et pouvant densifier les horaires. Sans confiance, cela aurait été impossible.
Une IA impossible à interpréter
Cependant, comme l’a précisé Nozha Boujemaa, vice-présidente mondiale au service Innovation et confiance en matière d’IA de Decathlon, « le besoin de fiabilité ne concerne pas uniquement le client, il est aussi présent en interne ». Elle raconte l’échec du système de tarification dynamique alimenté par l’IA chez Decathlon : « En magasin, les employés ne comprenaient pas pourquoi ils devaient appliquer ces prix. Le problème, c’est que l’IA n’était pas interprétable. » Pour que ce problème ne se reproduise plus, l’entreprise française a créé une nouvelle position, celle de « Designer IA Algorithmique », dont le rôle est de s’assurer que les solutions sont conçues pour être utilisées par des humains, favorisant ainsi l’adoption et la désirabilité, au-delà de la simple performance. Cette nouvelle profession répond à un défi majeur : la scalabilité transversale. À l’échelle des entreprises, il est difficile de trouver des compétences dynamisant l’adoption de l’IA. Par défaut, il est fréquent de piocher dans les départements technologiques, notamment en ce qui concerne l’utilisation de l’IA générative. Le service IT est donc laissé avec un problème de taille : expliquer l’inexplicable, les modèles d’IA générative n’étant pas transparents
Tech In Sport
Green Tech Leaders
Alliancy Elevate
International
Nominations
Politique publique



