Thierry Caye est le Chief Technology Officer de Lectra. Il est membre du comité exécutif de l’entreprise, spécialisée dans les solutions technologiques d’intelligence industrielle combinant logiciels en mode SaaS, équipements de découpe, données et services associés pour les secteurs de la mode, l’automobile ou encore l’ameublement.
Lectra est un acteur technologique français expert avec un positionnement marqué à l’international. Quelle organisation IT vous permet de mener vos chantiers structurants ?
Je pilote la stratégie technologique et en particulier les 600 personnes des équipes de R&D de Lectra, qui est un groupe de 3 000 personnes. En parallèle, notre VP Information Systems, pilote la direction des systèmes d’information qui gère notre bureautique et nos outils internes. Concernant nos chantiers structurants, je pilote globalement notre stratégie de « plateforme cœur » sur le cloud et la gouvernance data et IA. J’apporte donc aussi un support à l’interne pour toutes les questions liées à l’intelligence artificielle, au-delà de mon focus sur les produits et services que l’on délivre à nos clients. C’est un travail main dans la main qui est nécessaire pour des sujets avec autant d’impact. En termes d’activité, sur la partie logicielle, le SaaS est un axe majeur dans notre stratégie qui nous demande d’investir fortement. Nous réalisons aujourd’hui 526 millions d’euros de chiffre d’affaires, avec 90 millions d’ARR (revenu annuel récurrent). Nos transformations visent à accompagner une croissance forte pour augmenter ces revenus, que ce soit en organique ou par acquisition.
Pouvez-vous détailler vos chantiers IA ?
Le pilotage de la data reste un chantier majeur avec des choix pour déployer une « modern data platform » capable de gérer le stockage et la gouvernance des données. Nous gérons de très nombreuses données et nous avons besoin de fédérer celles issues des acquisitions dans un même data hub, plutôt que de réécrire tous les produits. C’est cette centralisation qui permet ensuite de faire de l’analytics et de l’IA. Depuis 2022, notre nouveau plan data consiste donc à passer d’un système reposant sur de multiples datalakes àune plateforme unique que l’on appelle DataHub.
Au-delà du buzz de ChatGPT, il faut comprendre que l’IA n’est pas un sujet nouveau pour Lectra. Nous disposons notamment depuis longtemps de solutions pour faire du benchmarking sectoriel à partir du scrapping des propositions tarifaires des sites de mode. Nous pouvons aussi faire des analyses de campagnes marketing très efficacement. Nous avons accéléré en 2024 avec un plan intégrant l’IA générative et agentique, mais le deep learning reste le sujet important pour nous par rapport à notre proposition de valeur couvrant les différentes étapes de la chaîne de valeur sur un marché. Pour le secteur de la mode par exemple, nous proposons des solutions telle que Valia Fashion pour optimiser les processus depuis la création de vêtement, les commandes issues de l’ERP à la production sur les équipements de découpe de tissus… Dans ce cadre, ce n’est pas l’IA générative telle qu’on la voit aujourd’hui qui apporte le plus mais l’exploitation des données et notre expertise métier qui permet d’entrainer nos propres modèles d’IA. Un dernier chantier important est celui du développement durable : nous savons que l’IA peut consommer énormément. Nous poussons donc l’écoconception dans toutes nos pratiques.
De plus en plus d’entreprises utilisatrices épinglent les risques de « vendor-lockin »… Quel regard portez-vous sur la situation du marché technologique en la matière ?
Je suis assez réceptif à ces questionnements. Comme toutes les directions technologiques, j’ai été moi-même confronté à des pratiques de vendor-lockin. Celles qui ont le plus d’impact depuis environ trois ans, ce sont les renouvellements des leaders du marché sur le cloud notamment. On se retrouve face à des augmentations de coûts très importantes. La donne a vraiment changé sur cette période : cela impacte nos budgets.
Quelle réponse apportez-vous ?
On s’interroge évidemment sur comment contrer de tels comportements, surtout quand on est mis devant le fait accompli… Cela tend fondamentalement la relation entre client et prestataire. Côté client, il faut trouver des arguments de riposte et cela passe par la mise en concurrence des prestataires évidemment. Nous avons un très bon service Achats que l’on a formé spécifiquement sur ces questions, avec une équipe dédiée pour ce type d’achat technologique… Cela permet de faire jouer les alternatives pour ramener de la raison dans les discussions !
Une autre stratégie complémentaire est de s’engager sur plusieurs années pour obtenir des avantages et prévoir la suite plus sereinement. Du côté des cloud providers, les trois grands leaders américains ont pris l’habitude de demander des engagements en termes de consommation : pour minimiser les augmentations des coûts, on nous demande d’augmenter nos « commitments » en termes d’usage… Nous sommes une entreprise en croissance sur le SaaS, donc c’est gérable. C’est aussi une des raisons qui explique que j’ai concentré mes efforts sur Azure et AWS, pour pouvoir prendre des engagements plus importants en termes de valeur. Avoir une pratique de dual sourcing est important quand la menace de l’alternative est moins évidente à agiter. Sur certains segments, on peut être beaucoup plus ambitieux : nous avons par exemple pu faire un accord groupe pour basculer entièrement notre forge logiciel depuis notre précédent fournisseur vers la solution managée GitLab. C’est dans ce cas une migration à offre équivalente.
Face à ces multiples situations, les discours en matière de « souveraineté numérique » sont redevenus très présents chez les acteurs économiques et politiques en France et en Europe. Est-ce positif ?
Je pense que chaque entreprise va avoir son propre prisme sur le sujet selon son secteur d’activité. Lectra est une entreprise française mais avec 25 000 clients dans le monde et 94% de chiffre d’affaires hors de France, dont 33% aux USA et 25% en Asie. Nous sommes obligés de penser mondial en permanence, avec nos solutions. Et en parallèle notre secteur d’activité ne nous amène pas à gérer des données très sensibles ! Il n’est pas question de données de santé ou de données financières par exemple, mais de données de traitement provenant de nos solutions ou nos équipements. Du côté de nos clients, il n’y a donc pas de contre-indication à mettre ces données sur des cloud américains, de plus les données de traitement ne sont pas directement intelligibles. Le risque géopolitique existe, on ne peut pas le nier. Mais la probabilité semble malgré tout faible que les fournisseurs de cloud américains viennent changer leur politique d’une façon telle que nous n’ayons plus la capacité de délivrer nos services Les risques en termes de perturbations business viennent surtout de l’augmentation des droits de douanes dans la période actuelle. Mais avec un site de fabrication sur chaque continent, nous sommes plus résilients.
Je pense que la rationalisation de notre approche cloud en double sourcing, pour ne pas être pied et poing lié auprès d’un seul prestataire, nous a permis de sortir du risque business le plus important à mes yeux. Celui-ci n’est pas géopolitique mais opérationnel, quand on a un patchwork de clouds différents issus de nos acquisitions, qui sont une source de coût et de complexité beaucoup trop importante pour une gestion mondiale à l’échelle. Nous avons une petite équipe de CloudOps : il faudrait disposer de beaucoup plus de monde pour faire tourner des systèmes fragmentés. Finalement, l’arbitrage est permanent : d’un côté on peut avoir intérêt à chercher à être agnostique vis-à-vis des acteurs américains, mais dans ce cas il faut accepter de s’amputer aussi des facilités et capacités innovantes qu’ils offrent. Cet arbitrage n’empêche pas que, quoiqu’il en soit, il faut conserver les compétences pour savoir quitter tout acteur en cas de problème important. On sait que c’est difficile dans le cas des clouds, que cela a un coût… mais il faut être capable de migrer et de redéployer ailleurs.
Est-ce seulement la vision du CTO ?
Ce n’est pas le périmètre exclusif d’un CTO. Tout ce que je vous explique sur l’harmonisation de nos plateformes data et le cloud, ce sont des projets stratégiques. Cela s’inscrit dans la trajectoire stratégique d’extension de nos revenus récurrents SaaS, mais également vers un engagement de plus de plus important vis à vis de nos clients sur des niveaux de services élevés (SLA).
Voyez-vous l’open-source comme un levier à activer plus fortement à l’avenir face à ces préoccupations sur les dépendances numériques ? A quelles conditions ?
Les briques open-source et le développement en propre sont des moyens que je vois comme un élément de l’équation parmi d’autres. L’avantage de l’open source c’est ne pas être dépendant de fournisseurs de solutions, mais cela demande aussi une expertise beaucoup plus forte en interne. Il y a également un risque de maintien de cette expertise dans la durée, dans une situation de turnover plus fort et avec des tensions sur les profils du marché qui connaissent ces solutions. Nous nous tournons de préférence vers des services managés même si nous évaluons régulièrement l’option open-source. Toutefois, nous intégrons certains composants ou librairies open source dans nos produits et solutions, avec un processus pour bien vérifier les types de licences open source vis à vis des obligations légales et sécurité.
