Cet article fait partie du dossier

La confiance : pour valoriser les données et l’IA
Découvrez le dossier

Les articles du dossier

L’adoption, premier baromètre de la confiance dans la Data & l’IA

La confiance est un préalable au développement des usages des données et de l’IA dans les organisations. Mais elle conditionne également l’adoption des solutions. Entretien avec Marion Gardais, directrice du centre d’excellence pour la Data et l’IA de Capgemini.

Alliancy. Comment créer la confiance des métiers à l’égard des produits Data et IA ?

Capgemini Marion Gardais, Directrice

Marion Gardais, directrice du centre d’excellence pour la Data et l’IA de Capgemini

Marion Gardais. Le sujet de la mesure de la confiance, c’est d’abord celui de l’adoption de ce qui est fourni aux utilisateurs autour de la donnée, les analytics et l’IA. Mais cette adoption sera différente selon chacune de ces 3 catégories. Néanmoins, c’est bien le niveau d’adoption qui révèlera la confiance ou son absence.

A lire aussi : Julien Chiaroni (Grand Défi IA) : « Nous rendons opérationnelle une IA de confiance dans les entreprises »

Sur la partie la plus simple, les analytics, qui sont souvent développés par les métiers eux-mêmes, le niveau d’adoption et donc de confiance peut être le plus élevé. Mais cela s’accompagne souvent de leur prolifération dans l’entreprise. Or, tous les tableaux de bord ne présentent pas le même niveau de fiabilité. Le bon dashboard sera donc celui qui se source sur les bons indicateurs, calculés de la même manière, et sur les bonnes données, disséminées partout dans l’entreprise. Le niveau de confiance sur les analytics est donc très lié à c20es caractéristiques. 

Les données sont partout, mais lesquelles sont les bonnes ?

M.G. : Les utilisateurs métiers y auront accès soit au travers des analytics soit des données directement. De nombreux systèmes, dans une approche self-service, sont mis entre les mains des utilisateurs : glossaire métier, catalogue de données, etc. L’adoption dépendra alors de l’exploitabilité de ces données, de leur nature compréhensible ou non par le business.

La qualité des données est aussi un critère critique dans l’adoption. Les raisons de non-qualité ne manquent pas. Et dans bien des cas, la gestion de la qualité de la donnée est tout simplement inexistante.

Et quid de la confiance à l’égard de l’IA, qui a pu susciter de la défiance par le passé ?

M.G. : La confiance dans l’IA est un sujet plus complexe encore. Les questionnements des utilisateurs sur la data et l’analytics se retrouvent sur l’IA, mais s’y ajoute en outre une méfiance collective. Elle s’explique par toute une mythologie, véhiculée notamment par le cinéma, et plus largement par un manque de connaissance sur ce qu’est réellement l’intelligence artificielle.

Ces systèmes ne relèvent pas de la science-fiction et ne partiront pas totalement hors de contrôle. Néanmoins, l’IA est auto-apprenante et doit nécessairement être supervisée grâce à la mise en place de processus et d’outils.

Comment pour ces usages des données favoriser la confiance ? Cela passe-t-il par la gouvernance ?

M.G. : Sur les analytics, le sujet est celui de la prévention de la prolifération, en s’assurant par exemple que ce qui a déjà été développé est réutilisé, mutualisé. Cela suppose donc de mettre à disposition du plus grand nombre, au moins au niveau d’une équipe, ce qui existe déjà.

La réponse est aussi celle de la gouvernance, via notamment un catalogue de services. La résolution est complexe cependant, en particulier dans les grandes organisations où les dashboards s’accumulent au fil des années.

L’approche ne consisterait donc pas à centraliser au maximum ?

M.G. : Tout centraliser n’est pas souhaitable. En effet, l’équipe centrale deviendrait alors le goulet d’étranglement, ce qui allongerait le time-to-market pour les utilisateurs. De plus, des équipes ou marchés locaux peuvent avoir des besoins très spécifiques dont la mutualisation ne présenterait pas d’intérêt.

Cela passe donc plutôt par un système, parfois même assez léger, de gouvernance afin de s’assurer que les analytics ne seront pas dupliqués inutilement.  

Vous l’expliquiez, la data quality est un levier de confiance. Où en est-on en termes de maturité dans ce secteur ?

M.G. : La problématique de la qualité de données existe dans toutes les entreprises. Maîtriser son patrimoine de données est complexe. Et en outre, ce métier reste encore assez récent. Data gouvernance et data steward, par exemple, sont des sujets encore jeunes dans l’univers du SI.

Par conséquent, les process dans l’entreprise ne sont pas en place. La prise de conscience sur la nécessité de maîtriser cette qualité n’est pas toujours au rendez-vous. Son traitement ne figure donc pas toujours en haut de la pile des projets.

Comment doit être traitée cette qualité ?

M.G. : La data quality demande notamment des processus, souvent transverses. Or, les organisations sont encore très silotées. Il est dès lors plus complexe de mettre en place un processus standard.

Il est nécessaire également de définir des rôles et responsabilités, en identifiant par exemple le owner des données et des pilotes de la gouvernance des données. L’outillage pour la gouvernance existe sur le marché, mais finalement assez peu de ces solutions couvrent réellement tous les aspects. Cela contribue encore à ralentir la mise en œuvre.

Pour en revenir à la confiance, des bonnes pratiques se dégagent-elles ?      

M.G. : Pour la diffusion et l’accès, les portails constituent une bonne approche. Ils facilitent les accès. Des outils spécifiques permettent par ailleurs de développer des glossaires métier, par exemple.

Les KPI de mesure de la qualité de la donnée sont également utiles. Ils s’appliquent à une partie du patrimoine de données. Leur but est de prouver que la donnée est de qualité. Mais ces indicateurs permettent surtout à l’équipe en charge de la data gouvernance de mesurer et d’identifier les points de vigilance.

Cette mesure de la qualité intervient pour les données internes, mais aussi pour celles acquises à l’extérieur, et qui sont ensuite remises à disposition.

En matière d’IA, vous évoquez une forme de défiance initiale. Cette tendance s’est-elle atténuée ces dernières années ?   

M.G. : Il reste encore un peu de chemin à parcourir, mais oui on a progressé. Un très grand nombre d’entreprises se sont lancées dans des expérimentations. Les équipes Data, SI, digitales ont par ailleurs contribué à acculturer. Pour autant, les disparités sont fortes, avec des tendances sectorielles marquées.  

L’acculturation reste d’actualité chez tous les grands clients français que nous accompagnons. En mettant en place des centres d’excellence ou des Data Factory, ils ont pour ambition d’accélérer les déploiements. En parallèle, ils s’efforcent donc aussi d’accélérer la compréhension pédagogique de ce qu’apportent l’IA et la Data.

Comme pour tout sujet de transformation, un travail d’accompagnement au changement est à mener. Dans ce cadre, nous préconisons fortement de former les utilisateurs métiers. La formation contribue notamment à démystifier l’IA.

Au niveau de l’IT, il est important aussi d’adopter des actions pour démontrer qu’on contrôle ce que fait l’IA. C’est aussi disposer de la capacité de détecter les dérives des modèles et à les corriger. Cela reste encore assez balbutiant, mais on commence à observer des mises en œuvre dans les entreprises françaises.    

Comment sensibiliser, métiers et dirigeants, sur la qualité des données ?

M.G. : C’est beaucoup de pédagogie. Il importe de s’appuyer sur des exemples propres à l’entreprise. Les plans de communication et de change management doivent être parlants pour l’organisation et pour chaque population d’utilisateurs. C’est un chantier d’ampleur, parfois un peu sous-estimé.

La démonstration de la valeur générée par la qualité des données peut en outre être difficile à réaliser…

Il est dès lors plus simple de démontrer le coût de la non-qualité. C’est la raison pour laquelle il est essentiel de travailler sur des démonstrations pertinentes pour chaque entreprise.

Par ailleurs, la qualité étant un enjeu transverse, le sponsoring de la direction est indispensable. Cette prise de conscience, a minima, est importante. Si le sponsorship des dirigeants n’existe pas, alors cela signifie qu’ils n’ont pas réalisé que la donnée était aujourd’hui un asset de l’entreprise.


Commenter

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *