Sephora rend agile sa gestion du Machine Learning pour accélérer

L’enseigne Sephora dispose d’une équipe Data centralisée fonctionnant désormais en mode agile et sur une même plateforme pour accélérer tout le cycle de vie des modèles de Machine Learning.

Entreprise du retail présente dans 15 pays, Sephora entend, comme les autres acteurs, tirer profit de l’intelligence artificielle. A cette fin, l’enseigne a mis sur pied une équipe Data Science chargée du développement et du déploiement de cas d’usage.

Intégrée au département Digital & IT, elle compte 12 personnes aux “compétences complémentaires”, soit des product owners, des data scientists et des ML & Data engineers. Leur mission porte principalement sur l’usage du ML appliqué au parcours client et à l’optimisation des opérations business.

A lire aussi : Michelin poursuit sa mue Data Mesh

Une même plateforme collaborative pour tous

Cette factory Data & IA sert les besoins des différents métiers de Sephora sur 15 pays. Et sa fonction n’est pas la recherche et développement. Elle doit en effet délivrer de la valeur aux métiers. Dans cette perspective, elle dispose d’un catalogue de cas d’usage existants à déployer localement.

Elle maintient et optimise ce catalogue en apportant des améliorations aux algorithmes lorsque c’est pertinent. L’équipe Data Science développe en outre de nouveaux cas d’usage. Enfin, elle prend en charge les tâches de test et de mesure sur les plans techniques et de création de valeur business.

Sephora1

Pour améliorer ses résultats sur ces quatre principaux enjeux, Sephora a fait évoluer son organisation et sa stack technologique. Pour ses développements en Machine Learning, l’entreprise s’appuie depuis 2017 sur la solution Dataiku. Cependant, dans un premier temps, l’outil était réservé aux data scientists.

Les data ingénieurs disposaient eux de leur propre application. Résultat : des développements supplémentaires étaient nécessaires au niveau de l’ingénierie pour permettre la mise en production des algorithmes, déclare Alexandre Russeil, Data Scientist pour Sephora.

Une infrastructure cloud scalable sur GCP

La décision a donc été prise de regrouper tous les utilisateurs du département Data sur une même plateforme, avec plusieurs bénéfices en termes de collaboration et d’accélération des déploiements. Les progrès en matière de collaboration concernent les interactions au sein de la communauté de développement, mais aussi avec les métiers.

D’après l’expert, ce recours à une solution unique, de l’idéation au déploiement, facilite ainsi l’exposition des données et des résultats des algorithmes, par le biais de tableaux de bord ou d’API.

Au niveau technologique, la plateforme de Data Science est combinée à une infrastructure scalable. Sephora exploite ainsi les services GCP (Google Cloud Platform), en particulier BigQuery, ainsi que des clusters Kubernetes. L’automatisation ne réside pas seulement au niveau de l’infrastructure. Une chaîne CI/CD (DevOps) a été mise en place pour accélérer les déploiements et automatiser.

Sephora2

En outre, depuis 2022, l’équipe Data Science a basculé d’une méthodologie de développement classique avec des cycles en V à de l’agile (Scrum). Pour ses modèles de Machine Learning, la squad AI Factory de Sephora travaille donc sur des “core models” avec un périmètre de départ réduit.  

L’objectif est ainsi de délivrer plus rapidement de la valeur. Par le biais de sprints courts, les modèles en V0 sont ensuite enrichis de manière incrémentale. Et sur chacun de ces cycles, les métiers sont directement impliqués, détaille le Data Scientist Clément Marchal.

Du MLOps sur le monitoring et l’alerting

“D’un point de vue ML, nous pouvons profiter de fonctionnalités avancées de l’outil, comme les modèles partitionnés, en permettant aux data scientists de designer un seul algorithme, mais qui apprend de manière spécifique sur chacun des pays grâce aux partitions de données”, ajoute son confrère.

Toujours dans une perspective d’industrialisation, Sephora a adopté les principes du MLOps en matière de monitoring et d’alerting. Pour chaque modèle en production, des métriques techniques et business sont remontées. En ce qui concerne l’alerting, l’automatisation a pour but de favoriser la réactivité.

“Le but est d’être alerté très rapidement. On ne peut pas atteindre qu’un fail arrive jusqu’au business. Nous avons donc synchronisé Dataiku pour créer automatiquement des tickets dans notre système de ticketing”, cite notamment Hicham Aissaoui, Lead Software & Data Engineer pour Sephora.

Pour les experts de l’enseigne, qui s’exprimaient en septembre lors du salon Big Data Paris, la plus-value de cette “transformation technologique et organisationnelle” est plus que significative.

4 mois pour concevoir de nouveaux cas d’usage ML

En termes de “time to deployment”, c’est-à-dire la capacité à déployer un cas d’usage existant dans un nouveau pays, cette durée a été réduite de plusieurs semaines ou mois à quelques jours. Ce gain est critique pour accélérer la mise en production sur les différents marchés du catalogue existant de 20 cas d’usage.

L’équipe Data se félicite aussi de l’apport du monitoring et du MLOps dans la réduction du temps consacré à la maintenance des modèles. La durée de ces tâches de maintenance a été divisée par deux. “Moins nous passons de temps sur la maintenance et plus nous sommes disponibles sur le développement de nouveaux cas d’usage”, insiste Clément Marchal.

Dans ce secteur aussi, les évolutions réalisées produisent des résultats. De l’idéation à l’automatisation, le développement d’un nouveau cas d’usage de machine learning nécessite désormais 4 mois, contre 12 auparavant. Ces différents bénéfices, Sephora les explique donc par une meilleure collaboration dans les équipes et par l’agilité introduite au niveau du déploiement, de l’automatisation et du MLOps.

Ce chantier finalisé, l’étape future pour l’équipe Data Science de l’entreprise consistera donc à accélérer encore le recours à l’intelligence artificielle. Celle-ci prévoit donc de s’ouvrir à de nouveaux départements, d’étendre son catalogue de cas d’usage et de consacrer plus de temps à l’optimisation de l’existant.