Projets Data : choisir le bon moment pour passer à l’industrialisation

Cet entretien est issu du Guide à télécharger Alliancy Insights Data Management « L’entreprise augmentée par la Data et l’IA »


Allianz rapproche décisionnel et big data au sein d’une même plateforme data dans le cadre d’une stratégie d’industrialisation des cas d’usage. Une politique de convergence menée au niveau groupe que nous explique Romaric Hatit, DSI d’Allianz France.

Romaric-Hatit,-directeur-des-systèmes-d’information-d’Allianz-France

Romaric Hatit, directeur des systèmes d’information d’Allianz France

Sur quelle infrastructure data s’appuie aujourd’hui Allianz ?

L’architecture est le reflet d’une histoire. Nous disposons d’une plateforme très orientée sur les usages du décisionnel, donc plutôt traditionnelle. Et depuis quelques années, nous avons également mis en place une plateforme groupe pour les usages big data. C’est très bien dans des logiques expérimentales et pour démarrer des initiatives autour du big data.

A lire aussi : La maîtrise de l’électrique repose intégralement sur de la donnée

Mais rapidement, cette double architecture pose deux questions. Les usages BI et big data sont-ils si différenciés pour le justifier ? La seconde question porte sur les sources et le stockage des données, différencié en fonction des types d’usage. Cette distinction ne se justifie plus.

Vous vous orientez donc vers une fusion au sein d’une même plateforme ?

Nous nous engageons dans une logique de convergence des deux plateformes. D’un côté, nous rationalisons tous nos usages décisionnels et la plateforme sous-jacente. Et dans le même temps, nous opérons un rapprochement avec la plateforme big data pour que, in fine, notre entrepôt de données soit unique à l’ensemble des usages. Ce choix permet d’optimiser et de simplifier l’alimentation, elle doit se faire une seule fois depuis les systèmes opérationnels et les systèmes de gestion.

La future plateforme accueillera des technologies permettant notamment de faire de l’analyse de données, par exemple grâce à de l’IA, mais aussi du reporting classique, en sortant toutefois des analyses déterministes comme on en a l’habitude.

Aujourd’hui, de quelles briques se compose l’architecture big data ?

Elle comprend un data lake, où nous stockons toutes les données nécessaires, et des capacités d’analyse, développées nous-mêmes ou d’outillage du marché. C’est sur cette plateforme big data que notre communauté de data scientists et de data engineers travaille aujourd’hui pour le développement des cas d’usage.

Guide Alliancy Insights - Data management

Guide Alliancy Insights – Data management

Avez-vous fait le choix du cloud ou du on-premise pour le big data ?

La plateforme est historiquement cloud, sur une infrastructure cloud privé Allianz. Nous sommes par ailleurs en cours de migration sur Azure. Elle était sur un cloud dédié à Allianz et nous basculons donc sur du cloud public.

Quant au choix du cloud dès le départ, il s’explique par une approche initiale qui était expérimentale. Le passage sur un cloud standard du marché s’inscrit cette fois dans une logique d’industrialisation.

Parmi les acteurs réglementés, l’adoption du cloud public peut se heurter à des freins. Est-ce aussi le cas chez Allianz ?

Oui, c’est la raison pour laquelle nous n’avons pas encore opéré cette migration sur Azure. Mais ce projet répond à une stratégie groupe consistant à utiliser une plateforme commune et un cloud provider unique. Nous passons d’une logique expérimentale de test & learn à une logique plus industrielle. C’est pourquoi il nous faut un partenaire industriel.

Le projet de migration est pour l’heure en stand-by pour des raisons de réglementation, de sécurité et d’accès aux données.

Convergence et rationalisation constituent votre feuille de route. Où en êtes-vous de sa réalisation ?

En ce qui concerne la France, nous sommes toujours en cours. Il s’agit de projets de longue haleine. Il faut en même temps repenser les usages des métiers. Pour homogénéiser et standardiser, il importe d’identifier les redondances, de rediriger vers des entrepôts de données mutualisés. La définition de la donnée doit également être partagée.

Le sujet de gouvernance sous-jacent est également primordial. En parallèle, nous menons donc des travaux de gouvernance des données, au niveau de l’entreprise dans son ensemble et au niveau du data lake. Les utilisateurs doivent pouvoir savoir à tout instant quelles données sont disponibles dans le data lake.

« Il est impératif d’éviter les effets de big bang, mais sans cependant attendre pour avancer. L’approche progressive et pragmatique a de la valeur. Elle permet de ne pas attendre de disposer de l’intégralité de la plateforme pour… Cliquez pour tweeter

Et au niveau du groupe Allianz ?

Des travaux importants sont menés afin d’éviter que chaque entité et chaque pays ne reconstruisent leurs propres manières de fonctionner, leurs propres logiques d’ingestion de données.

Cette harmonisation pose une question technologique, qui justifie aussi un stand-by de la migration dans le cloud public. Nous voulons une vision précise de l’usage futur des technologies standards des cloud providers. Nous souhaitons aussi définir les composants sur lesquels nous pourrions décider de conserver la maîtrise, quitte à redévelopper.

A lire aussi : Poursuivre l’acculturation data à tous les niveaux chez Suez

Nous en sommes donc plutôt à des phases de design actuellement. Les phases opérationnelles de convergence se dérouleront à l’horizon 2024. Cet horizon est le même pour le reste de la transformation du SI. En outre, cela ne nous interdit pas, en attendant, de développer des usages.

Il est impératif d’éviter les effets de big bang, mais sans cependant attendre pour avancer. L’approche progressive et pragmatique a de la valeur. Elle permet de ne pas attendre de disposer de l’intégralité de la plateforme pour commencer à tirer de la valeur pour l’entreprise.

En revanche, il faut savoir choisir le bon moment pour passer de l’expérimentation à l’industrialisation. C’est ce point d’inflexion qu’il faut savoir gérer efficacement. Par ailleurs, la phase d’expérimentation nous a permis de gagner en maturité et de développer les nouveaux métiers autour de la data. Nous n’avons pas perdu de temps durant cette phase expérimentale, qui a été extrêmement profitable. Il faut pouvoir apprendre à utiliser les technologies, apprendre de ses erreurs aussi et pivoter rapidement.

Mener ces projets nécessite des compétences. Comment répondez-vous à cet enjeu ?

Nous avons créé une académie et une formation longue durée autour de la data science appelée Datascientest. Cette structure nous permet de former de nouveaux data scientists et d’accompagner leur montée en compétences.

Nous avons aussi créé des métiers de data engineer, positionnés plutôt à l’IT, quand nos data scientists sont plus proches du métier. Ils se répartissent entre un centre de compétences central et au sein des métiers les plus matures.

Malgré la formation en interne, le recrutement est-il néanmoins un sujet pour Allianz ?

Oui, pour les data engineers. Ils sont moins nombreux que les data scientists sur le marché. La publicité pour ce métier n’a pas été aussi forte ces dernières années. Il n’est donc pas simple de trouver des data engineers.

Pour répondre à cet enjeu des compétences, nous créons une filière d’excellence data pour donner à ces profils des compétences sur le fond, mais aussi du savoir-être. Mais d’autres métiers ont également émergé dans la data au sein de l’entreprise, comme les data officers, les data owners et les data stewards.