Dix ans après l’open data, la République numérique entre en âge de raison

 

Dix ans après l’open data, la France veut reprendre la main. À Nantes, lors du Salon de la Data et de l’IA, Axelle Lemaire, Éric Bothorel, Francky Trichet et Cécile Le Guen ont débattu d’un numérique public plus responsable et souverain.

 

Dix ans après l’élan fondateur de l’open data, le temps de la rétrospective impose celui de la lucidité. C’est précisément ce qu’ont rappelé les intervenants réunis à Nantes pour cette table ronde anniversaire du Salon de la Data et de l’IA : « Table ronde : 10 ans après… quelles politiques publiques pour la data et l’IA ? » En 2015, la donnée symbolisait la promesse démocratique d’un État ouvert. En 2025, elle représente la condition de sa légitimité. À l’époque secrétaire d’État au numérique, Axelle Lemaire, directrice responsabilité d’entreprise et développement durable chez Sopra Steria, résume le virage avec une précision presque désabusée. « La donnée était un enjeu démocratique, et donc profondément politique », précise-t-elle. La décennie a transformé la naïveté en stratégie. Les collectivités, comme les administrations, ont compris qu’ouvrir ne suffisait pas. Il fallait maîtriser, documenter, responsabiliser. « On a ouvert nos algorithmes de tarification dès 2018 pour prouver la transparence », rappelle Francky Trichet, vice-président de Nantes Métropole en charge de l’innovation, du numérique et de l’international. La donnée n’est plus un symbole d’innovation, mais un marqueur de crédibilité publique.

 

De l’ouverture brute à la gouvernance intégrée

 

La table ronde l’a confirmé : le mouvement d’ouverture des données a atteint son point de bascule. Cécile Le Guen, administratrice générale déléguée au numérique, y voit la plus grande avancée institutionnelle de la décennie. « Mettre fin aux redevances a libéré la circulation interadministrative, mais la vraie révolution, c’est la gouvernance. » La donnée publique est désormais pensée comme une infrastructure stratégique, pas comme un stock à diffuser. L’État a professionnalisé sa gestion avec la création d’un administrateur général des données, tandis que les collectivités locales ont instauré des chartes éthiques et des mécanismes de coordination. Le changement est profond, puisque la donnée n’est plus seulement produite, elle est pilotée. Ce glissement signe la fin de l’ère pionnière. La transparence ne se mesure plus au volume publié, mais à la qualité, à la fiabilité et à la traçabilité. En dix ans, la donnée est passée du registre de la liberté à celui de la responsabilité.

 

L’IA, révélateur d’un déficit structurel

 

L’irruption de l’intelligence artificielle a servi de crash-test. En deux ans, l’emballement médiatique a déplacé le centre de gravité du numérique public, souvent au détriment de la donnée. « Sans données fiables, les systèmes s’effondrent », observe Cécile Le Guen. Le constat est sévère, mais salutaire. La DINUM (Direction interministérielle du numérique) a dû corriger la trajectoire. Retour aux fondamentaux : gouvernance, interopérabilité et documentation. L’IA ne crée pas de valeur sans une base de données maîtrisée. « Dans un monde noyé par la désinformation, on aura besoin de données dont l’authenticité est validée », résume en une phrase Axelle Lemaire. Ce rappel à l’ordre replace la qualité des données au cœur de la souveraineté numérique. Là où certains voyaient dans l’IA une promesse d’automatisation, les acteurs publics y voient désormais un test de rigueur. La performance ne dépend plus de la puissance des modèles, mais de la solidité du socle informationnel.

 

Sobriété numérique : du discours à la méthode

 

Le numérique public ne peut plus ignorer sa dimension environnementale. Axelle Lemaire, aujourd’hui directrice du développement durable chez Sopra Steria, en fait un combat quotidien. « Gérer la data, c’est désormais dessiner des trajectoires de décarbonation crédibles. » Mais il semble impossible de réduire ce qu’on ne sait pas mesurer. Les grandes plateformes cloud gardent leurs chiffres sous clé. « L’opacité énergétique des hyperscalers empêche toute standardisation. Il faut harmoniser les méthodes de calcul », insiste-t-elle. Cette absence de transparence révèle une contradiction européenne : un discours politique avancé sur la sobriété, mais un déficit d’indicateurs fiables. La standardisation devient donc le nouveau champ de bataille. La donnée, longtemps symbole de transparence démocratique, devient aussi la clé d’un numérique mesurable et soutenable.

 

Souveraineté : sortir du mythe pour bâtir du concret

 

La souveraineté numérique n’est plus un slogan, c’est une comptabilité. « Soit on subit, soit on vise l’indépendance partielle d’ici 2030, en créant des alternatives crédibles », tranche Francky Trichet. Son approche repose sur trois leviers : mesurer les dépendances technologiques, mutualiser les retours d’expérience et contractualiser la transparence dans la commande publique. La DINUM compte offrir aux agents publics une suite bureautique souveraine capable de rivaliser avec les outils américains. Là encore, il ne s’agit pas de fermer le marché, mais d’en reprendre le contrôle. La souveraineté devient ainsi une discipline managériale. Chaque brique logicielle documentée, chaque cloud audité, chaque contrat transparent réduit la dépendance structurelle. Les métropoles qui expérimentent ces modèles (Nantes, Toulouse, Lyon) créent une dynamique d’entraînement que l’État ne pouvait, seul, initier.

 

2035, un numérique sous surveillance démocratique

 

Tous l’ont admis : l’IA générative, après l’euphorie, connaîtra sa période de régulation. « Il y aura un backlash après les excès d’usage, puis un resserrement réglementaire », anticipe Axelle Lemaire. Les cycles technologiques ont leur retour de bâton. Cette régulation s’imposera autant par le droit que par la société. « On finira par interdire certains usages du numérique dans l’espace public, comme on a interdit la cigarette ou l’alcool », esquisse le vice-président de la métropole nantaise. Ce parallèle n’a rien d’anecdotique. Il dit la montée d’un nouveau rapport au numérique, fait de vigilance citoyenne et de responsabilité publique. Les politiques numériques entrent dans une ère de stabilisation. L’expérimentation cède le pas à la consolidation, l’innovation à la redevabilité. En 2035, la réussite ne se mesurera plus à la vitesse des technologies adoptées, mais à la qualité des cadres qui les contiennent. Dix ans après, le cycle s’inverse. Ouvrir ne suffit plus, il faut maîtriser. L’open data a donné naissance à la gouvernance de la donnée, la gouvernance à la souveraineté, la souveraineté à la sobriété. Dans un monde saturé d’IA, la confiance devient la seule infrastructure vraiment critique.