Données de Défense : « un changement culturel extrêmement profond »

Cet article a été publié originellement sur mydatacompany.fr

Le ministère des Armées va investir dans l’IA. Il doit pour cela mettre en place une véritable gouvernance des données, mais aussi adapter son infrastructure (cloud). Une culture de la valorisation des données doit également voir le jour.

La ministre des Armées, Florence Parly, attend des militaires qu’ils embrassent « les opportunités fabuleuses » offertes par l’intelligence artificielle. Le récent rapport rendu sur l’IA dans le domaine de la défense illustre cependant l’ampleur de la tâche.

La direction générale du numérique et des systèmes d’information et de communication, la DGNum, aura fort à faire pour tenir le cap fixé. Le ministère ambitionne en effet de prétendre à une « maturité organisationnelle dans la maîtrise des données » dès 2021.

 

La donnée est « stratégique » et un gage « d’autonomie »

La première étape pour y parvenir consistera à développer une véritable culture des données au sein des armées. Le directeur de la DGNum, le vice-amiral d’escadre Arnaud Coustillière, fixait le cap dès mars lors de Big Data 2019.

Or, comme ce dernier le rappelle, l’armée compte des centaines de métiers. Autant à acculturer, même si certains de ces métiers seront vraisemblablement plus stratégiques en matière de valorisation des données et d’IA.

Arnaud Coustillière, directeur de la DGNum et le vice-amiral d'escadre.

Si la donnée est « stratégique » et un gage « d’autonomie », elle représente « surtout un changement culturel extrêmement fort et profond » souligne Arnaud Coustillière. D’ailleurs, il le reconnaît, le niveau de maturité du ministère sur les données est « très variable », et même « globalement faible. »

« Nous ne sommes pas un ministère avec une culture très forte de la capitalisation des données. Bien sûr, nous les stockons, les archivons, mais cela ne s’intègre pas dans une culture de valorisation. » Et pour amorcer un changement culturel, le vice-amiral mise sur la mise en place de stratégies fondées sur des cas d’usage.

Basculer des PoC à l’industrialisation, « un défi permanent »

« Seuls les cas d’usage réussiront à convaincre de l’intérêt de valoriser les données (…) Nous poussons donc beaucoup d’initiatives, de cas d’usage, de PoC, d’expérimentations dans tous les domaines. Il y a un grand foisonnement d’expérimentations en ce moment au sein du ministère » témoigne-t-il encore.

Mais basculer des PoC à l’industrialisation est aujourd’hui « un défi permanent ». Pour y parvenir, la direction du numérique de la Défense planche notamment sur une évolution de la méthode de conduite des projets informatiques « en déployant davantage de méthodes agiles à l’échelle. »

Des systèmes centrés données

Au niveau technique, investir le champ de la data implique notamment de basculer progressivement l’ensemble des systèmes « pour les centrer données et non pas simplement système d’information. » La capacité d’hébergement doit aussi être mise à niveau pour permettre des cas d’usage Big Data et IA.

Dans leur rapport consacré à l’IA, les Armées insistent ainsi sur la nécessité de se « doter de capacités de calcul et de stockage spécifiques. » Et à ce titre, le cloud tiendra une place centrale dans les futures infrastructures du ministère.

Les rapporteurs justifient notamment ce choix technologique par la capacité du cloud « d’allouer selon les besoins des volumes importants de stockage très rapidement. » Or, à titre d’exemple, un avion Rafale produit 40 To/heure de données. Du stockage donc et des ressources de calcul adaptées.

Du Cloud privé, dédié et public pour l’Armée

Du cloud certes, mais dans un cadre garantissant une « autonomie stratégique ». « Dès lors qu’on parle de données, de savoir-faire, d’algorithmes, une ligne rouge intervient. Il est exclu que les données du ministère soient hors du cadre juridique national, voire européen » pose comme limite le patron de la DGNum.

Mais les travaux menés actuellement vont au-delà de la définition de grands principes et d’une doctrine. Dès mars, Florence Parly a lancé trois groupes de travail : IA, éthique et IA, et hébergement – ce dernier étant porté par la DGNum. Celle-ci s’inscrit d’ores et déjà dans la stratégie fixée par l’Etat en faveur du cloud privé et d’un cloud dédié (chez un partenaire de confiance, mais dont la cybersécurité n’est pas déléguée).

Une infra Cloud centrée principalement sur le cloud dédié

Le ministère ne renonce pas au cloud public cependant. « Nous n’irons y chercher que des expérimentations, voire du DevOps rapide avant qu’il ne soit réintégré » détaille Arnaud Coustillière. Il présentait fin avril une stratégie à la ministre, « centrée principalement sur le cloud dédié. »

Le cloud privé sera en principe « limité au minimum en raison de la complexité à suivre le rythme des évolutions technologiques et de disposer des compétences humaines nécessaires. » Et l’armée se tournera pour ces prestations cloud vers des fournisseurs français « avec lesquels elle partage une communauté de destin », condition indispensable à la confiance.

IA et données ne peuvent pas être déléguées

Et cet impératif « d’autonomie stratégique et de souveraineté » s’applique également aux développements autour de l’intelligence artificielle. « Comment seront entraînés les algorithmes ? Avec quelles données ? Que contiennent ces algorithmes ? Toutes ces questions ne peuvent pas être déléguées, y compris à un grand allier » souligne le vice-amiral d’escadre.

Armes : « la responsabilité est humaine et ne peut être qu’humaine »

En matière d’IA, il évacue par ailleurs la question des armes autonomes, un problématique pas totalement nouvelle cependant, les systèmes embarquant des « automatismes » depuis les années 80.

« La responsabilité est humaine et ne peut être qu’humaine, portée par une chaîne personnelle d’individus (…) Cela ne se délègue pas. » En ce qui concerne l’intelligence augmentée pour de l’aide à la décision, l’hypothèse est cette fois accueillie favorablement.

Mais cette intelligence augmentée suppose cependant de maîtriser différents paramètres relatifs au fonctionnement des algorithmes et à la nature des données ayant servi à les entraîner. Au risque sinon de ne pas « être sûr in fine que celui qui décide dispose des bons critères. »