G. Guinamand (Engie) : «Avec notre Common Data Hub, nous voulons une action cohérente sur la data sans risque pour le SI»

Gérard Guinamand a pris la fonction nouvellement créée de Chief Data Officer groupe d’ENGIE le 1er mai 2018. Objectif : accélérer la transformation data du Groupe et en faire une « data driven company ». Il détaille les axes de son action. Cette interview est extraite du guide stratégies data réalisé en partenariat avec Veeam.

Alliancy. Comme résumeriez-vous la philosophie de la stratégie data d’Engie ?

Gérard Guinamand a pris la fonction nouvellement créée de Chief Data Officer groupe d’ENGIE

Gérard Guinamand, chief Data Officer, groupe Engie

Gérard Guinamand. Isabelle Kocher, Directrice générale d’ENGIE et Yves Le Gélard, Directeur général adjoint chargé du Digital et des Systèmes d’Information du Groupe ont voulu franchir en 2018 une étape claire avec le projet, « Data@ Engie ». Notre objectif est de créer les conditions pour créer systématiquement de la valeur à partir des données présentes un peu partout dans le Groupe en y accédant de façon beaucoup plus fluide et sécurisée L’impact visé est double : d’abord viser l’excellence opérationnelle. Ensuite, en permettre la création de nouveaux produits et services.

Par quoi avez-vous commencé ?

Gérard Guinamand. Nous adressons en parallèle trois axes de transformation. Le premier vise à développer la « conscience data » des managers de nos entités opérationnelles (nos « BUs »), à définir la vision et la stratégie Data du Groupe et de chaque BU et enfin à mettre en place une gouvernance de la donnée. Le deuxième vise à développer nos compétences à faire parler la donnée et à développer des cas d’usage analytics et enfin le troisième vise à doter le Groupe d’un écosystème technologique permettant d’adresser tous les besoins en matière de date.

Qu’est-ce qui traduit le mieux cet effort sur les sujets RH ?

Gérard Guinamand. Nous avons créé des « Data Garage » auprès de chaque entité du groupe, pour permettre la proximité avec le business, ces équipes vont développer des algorithmes à la fois dans une logique de lab et d’industrialisation. Pour avoir ces compétences disponibles, nous animons depuis déjà plus d’un an un réseau de datascientists, qu’ils soient ou non sur des postes de datascientists. A travers des défis de data science, nous posons une problématique business, mettons à dispositions des sets de données et chaque datascientist peut concourir et proposer des solutions. Les vainqueurs sont bien entendu récompensés ! En tout, ce sont ainsi 200 personnes qui sont en action sur nos 25 business units.

Qu’en est-il du dernier axe de votre transformation data ?

Gérard Guinamand. La pièce maîtresse de notre écosystème technique est notre « Common Data Hub », basée sur le cloud AWS, qui offre une réponse globale tant en matière de data storage qu’en analytiques ou en dataviz. Elle sera alimentée en mode bottom-up par les BU pour rendre progressivement visible et partageable la data au reste du groupe. Nous y incluons également des données externes de l’open data ou de partenaires.

Quel est l’objectif ?

Gérard Guinamand. L’idée est que chaque BU crée son datahub de BU et y dépose ses data en fonction de ses besoins, progressivement. Elles deviendront ensuite visibles par les autres BU : chacun peut donner et recevoir. Une fois la visibilité acquise, chaque BU peut décider d’aller plus loin, pour donner accès « sur demande » à ses jeux de données. L’objectifs est d’avoir le maximum de data pour créer de la valeur, nous essayons de trouver un bon équilibre entre « alimenter le data hub à partir des cas d’usage » et « trouver des cas d’usage à partir de la data du data hub ».

Cela pose-t-il des challenges particuliers ?

Gérard Guinamand. Le premier défi, c’est l’accès à la donnée. Le Common Data Hub dépend évidemment de nos sources de data locales, qui sont hébergées dans des data centers on-premise, sur des clouds privés ou sur le cloud public. Ce caractère hybride nous oblige à un fort travail d’ingénierie pour automatiser les remontées vers le datahub et à en assurer la fiabilité et la disponibilité malgré la complexité du système d’information. Il a fallu également faire très attention aux enjeux de sécurité et de confidentialité et responsabiliser les BU. Il faut aussi que les acteurs des BU soient sensibilisés aux enjeux data. Une stratégie data de groupe ne dispense donc pas d’émergence de stratégie data pour les business units.

Identifiez-vous un risque de « dépendance » à la data, qui poserait un problème en cas de non-disponibilité de celle-ci ?

Gérard Guinamand. Le datahub repose sur une duplication des données donc il n’y a pas de risque majeur opérationnel mais la responsabilité de chaque DSI au sein des BU est forte pour assurer à la fois la disponibilité et la sécurité des environnements locaux. Le fait que nous nous reposions en bonne partie sur le cloud ne m’inquiète pas : il y a eu quelques grandes pannes médiatisées ces dernières années, mais autrement, la fiabilité, la sécurité et la disponibilité sont au rendez-vous. Bien évidemment nous avons toujours par ailleurs nos bases de données opérationnelles liées à nos SI transactionnels comme les SCADA par exemple. La fiabilité de ces derniers est un inconditionnel de notre activité. Il faut donc distinguer les approches de « data froide » qu’on peut avoir avec un datahub, pour explorer de nouveaux analytics et les data temps réel « chaudes », dont l’exploitation est critique

> Retrouvez les 3 points clefs selon Gérard Guinamand pour les DSI dans le guide stratégies data.