Gagner en productivité sans perdre le contrôle, l’équation impossible
Au TechDay 2026, acteurs publics et privés ont confronté leurs visions de l’IA, entre adoption accélérée, dépendances critiques et limites industrielles européennes.
Publié et mis à jour le 22 avr. Lecture 4 min.
Anne-Florence Canton, préfecture de police, Lucie Finet, la mission French Tech, Nosing Doeuk, mc2i et Martine Gouriet, EDF au TechDay 2026 (de gauche à droite)
―Fiona Slous / AlliancyLes machines tournent, les flux s’accélèrent, les tableaux de bord s’illuminent de gains de productivité. Tout semble sous contrôle. Pourtant, au cœur du système, les briques essentielles - modèles, infrastructures, capacités de calcul - restent hors de portée. L’intelligence artificielle s’installe dans les organisations européennes comme une évidence opérationnelle, mais sur une architecture que l’on ne possède pas entièrement. “On a 83 % de nos services numériques qui sont américains”, a rappelé Martine Gouriet, directrice transformation numérique chez EDF. Le chiffre agit comme un point de bascule. Il ne traduit pas seulement un retard, mais une dépendance structurelle qui change de nature avec l’IA. Car cette fois, il ne s’agit plus d’outils périphériques. Les couches critiques sont concernées. “Le sujet de l’intelligence artificielle, c’est un sujet de survie”, a affirmé Paul Midy, député de Paris-Saclay. Derrière la formule, une lecture industrielle. L’Europe adopte vite, mais sur des briques qu’elle ne maîtrise pas. Et plus l’IA s’insère dans les processus métiers, plus cette dépendance devient difficile à extraire. L’accélération est réelle. La capacité de reprise, beaucoup moins.
Le réel rattrape les promesses
Les expérimentations publiques donnent à voir ce décalage entre potentiel technologique et réalité d’usage. Lors des Jeux olympiques de 2024, l’IA appliquée à la vidéoprotection devait démontrer sa valeur à grande échelle. Elle a surtout révélé les conditions concrètes de son efficacité. “Le retour d’expérience a été très intéressant et en même temps très mitigé”, a reconnu Anne-Florence Canton, directrice de l’innovation à la Préfecture de police de Paris. L'outil fonctionnait, mais elle n’était pas décisive dans un contexte saturé de moyens humains. L’IA ne crée pas mécaniquement de la performance. Elle en déplace les conditions. C’est dans des environnements contraints, sous tension, que son apport devient critique. “Le gain de temps est énorme”, a-t-elle souligné à propos de l’analyse de dossiers administratifs pouvant contenir jusqu’à 500 pièces. L’IA cesse d’être un outil d’optimisation pour devenir un élément de continuité opérationnelle. Mais cette bascule soulève une exigence immédiate. “On veut être maître de nos algorithmes”, a insisté Anne-Florence Canton. Dans les environnements sensibles, l’enjeu n’est pas seulement d’utiliser l’IA, mais de comprendre ce qu’elle fait, comment elle le fait et sur quelles dépendances elle repose. Une exigence qui dépasse largement la simple intégration d’outils.
L’innovation française face au mur industriel
Ce besoin de maîtrise se heurte à une réalité industrielle. L’écosystème français est riche, mais encore fragmenté. “Très souvent, ce sont les Américains qui sont les premiers clients”, a observé Lucie Finet, directrice adjointe de la mission French Tech. Le paradoxe est connu. Les startups innovent, développent des solutions, mais trouvent leurs débouchés ailleurs, là où la prise de risque est plus rapide et les cycles d’achat plus courts. “L’enjeu, c’est celui du passage à l’échelle”, a-t-elle précisé. Car le problème n’est plus l’émergence. Il est identifié depuis plusieurs années. Ce qui bloque, c’est la capacité à industrialiser. Côté grands groupes, la contrainte est immédiate. “On ne peut pas s’appuyer sur une boîte de 15 personnes pour 200 000 postes”, a rappelé Martine Gouriet. Entre l’agilité des startups et les exigences de robustesse des grands comptes, un espace critique reste sous-structuré. Résultat, les preuves de concept (POC) se multiplient, mais la transformation à grande échelle reste limitée. Ce verrou est moins technologique qu’économique. Il tient à la capacité à financer la croissance, à sécuriser les déploiements, à garantir la continuité de service. Tant que cet espace intermédiaire ne se consolide pas, la souveraineté restera une ambition fragile, dépendante d’acteurs capables, eux, de livrer à l’échelle.
Espionnage, chantage, dépendance assumée
Le débat a ainsi quitté le terrain des intentions pour celui des risques concrets. “Le premier risque, c’est l’espionnage”, a détaillé Martine Gouriet. “Le deuxième, c’est le chantage commercial”. Puis un troisième, plus récent. “Le chantage diplomatique”. Ces trois niveaux dessinent une cartographie précise des dépendances. Ils renvoient à des scénarios opérationnels. Une hausse brutale des coûts imposée par un fournisseur. Une dépendance à des solutions critiques sans alternative crédible. Ou, plus radicalement, une interruption de service décidée à distance. Ces hypothèses, longtemps jugées théoriques, sont désormais intégrées dans les stratégies des grands groupes comme des administrations. L’IA agit ici comme un multiplicateur. Elle renforce les gains de productivité, mais aussi la vulnérabilité. Elle s’insère dans des processus critiques et en augmente la sensibilité. “On ne peut pas se permettre d’avoir des fuites de données”, a rappelé Anne-Florence Canton. Dans ce contexte, la dépendance devient un paramètre à piloter. Avec une contrainte simple. Chaque gain d’efficacité immédiat doit désormais être mis en balance avec un risque de perte de contrôle à long terme.

