Face à la crise, quelle intelligence artificielle pour la Smart City ?

De nouveaux usages de mobilité et logistique, qui s’appuient sur l’IA, pourraient aider les villes à s’adapter à la crise sanitaire et à anticiper les prochaines crises. Mais les écueils pour les mettre en œuvre sont nombreux.

Les scènes prises sur le vif au smartphone n’ont pas manqué de faire réagir : des métros ou des bus bondés en heure de pointe, en plein pic pandémique. Vecteurs majeurs de contamination ? Les données exactes sont rares, mais le principe fait consensus : de tels flux déjà désagréables habituellement, sont devenus insupportables face à l’inquiétude du virus. Il ne s’agit là d’ailleurs que d’un exemple parmi d’autres de situations qui interrogent, en matière d’usages de mobilité, de rassemblements dans l’espace public, devant ou à l’intérieur des commerces… N’est-il donc pas possible de changer les choses pour espérer une vraie reprise, plutôt que de nouveaux confinements ? La technologie peut-elle apporter des réponses pour anticiper les prochaines crises ?

En la matière, les regards se tournent rapidement vers les capacités d’intelligence artificielle. Avec l’idée que vu les progrès fait par l’IA ces dernières années, il serait tout simplement possible de mieux canaliser les flux et organiser les systèmes des villes et des territoires. Les cas d’usages semblent innombrables alors que les vertus des Smart City sont martelées depuis longtemps.

Comprendre le territoire et aider à la décision

« La ville post-Covid passe sans doute par une réorganisation de ses réseaux de déplacement : c’est une ville qui doit être plus verte, plus accessible, plus inclusive et dont le système de fonctionnement favorise l’anticipation des crises » admet Guillaume Vacher, manager au sein de la practice Smart Cities & Territories du cabinet de conseil Magellan Partners. Pour lui, l’intelligence artificielle peut dans ce cadre jouer deux rôles clés : « L’IA va aider d’abord sur la compréhension du territoire et de ses flux et ensuite sur l’aide à la décision. On sait faire apprendre les heures de pointe du métro à une IA ou le nombre de personnes qui circulent à la Défense. On peut anticiper les flux de personnes pour avoir une donnée d’anticipation, venant de statistiques, qui permet de s’organiser autour de la crise, en rationalisant le nombre de rames d’un métro ou les accès à un centre commercial par exemple ».

A lire aussi : La crise sanitaire accélérateur des territoires numériques ?

Et ces façons de faire demeurent valables pour mieux gérer l’impact des travaux urbains, mais aussi potentiellement les alertes attentats, les crises liées au dérèglement climatique… « avec des moteurs de règles qui permettent de recommander des mesures à J-2 ou J-1, ou le cas échéant en réaction rapide à un évènement » illustre l’expert. Les possibilités sont nombreuses notamment grâce à la capacité à utiliser les images et vidéos de la ville avec le numérique, la « computer vision », pour mieux comprendre les interactions entre de multiples systèmes.

Prévoir les infrastructures futures de la ville

Prévoir-les-infrastructures-futures-de-la-ville Jean-Philippe Clément, chief data officer de la Mairie de Paris, souligne également la variété des usages : « La crise a accéléré la révélation de certaines situations. Tout le monde a ressenti le besoin de pouvoir accéder plus facilement à l’information. Nous avons par exemple dû publier très vite les jeux de données concernant le click and collect pour les commerces. De la soumission des offres des commerçants sur Paris.fr jusqu’à la mise à disposition de l’information, avec la donnée « mise en qualité », il fallait que ça aille très vite. Heureusement nous étions bien dimensionnés pour cela grâce à notre expérience de l’open data. ». En effet, l’open data vise à laisser un accès à certaines données et un usage libre aux usagers pour créer plus de valeur collective.

En matière de mobilité, c’est la gestion des pistes cyclables, avec des capteurs permettant de récupérer les informations sur l’intensité de leur usage qui est mis en avant, pour préparer la reprise. « Cela va guider la pérennisation des équipements. Il nous faut acquérir une vision qui facilite la construction des prochaines infrastructures et évite le stress urbain, y compris pendant les crises » résume-t-il.

Les aspects spécifiquement liés à la santé ne sont cependant pas un domaine de compétences des villes, difficile donc d’imaginer pouvoir faire des liens directs entre ces améliorations d’usages et de véritables mesures de prévention sanitaire, au-delà de ce qui relève déjà du bon sens en matière de politique publique, comme la mise à disposition de lieux et d’équipements pour les équipes de santé en cas de besoin.

Un enjeu avant tout logistique

Cependant, pour Arnold Zephir, datascientist au sein de la start-up Prevision.io. : « tout est lié, l’heure à laquelle les gens se déplacent, les bouchons, les variations dans la pandémie et le télétravail… Chaque modèle peut avoir une influence sur les autres. Si on prend l’exemple de la crise sanitaire, il faut commencer par comprendre que les données liées aux commerces, à la fréquentation des lieux et même à l’énergie sont étroitement liées aux problématiques de santé ». Il explique par ailleurs qu’à cette échelle, la question devient surtout logistique. « Nous avons travaillé sur un modèle pour prévoir comment une région autour d’un centre hospitalier allait être impacté par la Covid, pour anticiper le nombre de personnes qui arriveront en réanimation et les risques de saturation des services. C’est horrible à dire, mais pour les hôpitaux et les territoires, il s’agit d’une question basique de logistique à gérer. A peu de chose près, ce sont les mêmes algorithmes qui font les prédictions pour la livraison des colis à Noël, qui sont utilisés pour prévoir les lits de réanimation ! ».

Alors qu’est-ce qui coince pour généraliser des mises en œuvre et que ces villes « post-covid » émergent ? Les défenseurs de la smart city dénombrent en fait deux catégories de problèmes : la capacité opérationnelle à réunir et à gérer la donnée utile d’une part, et l’acceptabilité des services rendus d’autre part.

Le défi du partage efficace de la donnée

Jean-Marc Lazard,
fondateur et CEO d’OpenSoftData. © OpenSoftData

« C’est assez marrant d’entendre toutes les communications sur l’intelligence artificielle ces dernières années » reconnait Jean-Phillipe Clément. « L’IA arrive après plein d’autres enjeux beaucoup plus délicats autour de la gestion de la donnée. Une IA peut mettre en lumière quelques effets « waouh », mais avant cela et avant de recruter les datascientists qui vont travailler en ce sens, il faut déjà que les organisations pensent différemment la donnée, qu’elles soient capables de produire des données dont l’usage à termes dépassera celui qui a été prévu initialement.

C’est un enjeu d’état d’esprit des acteurs à tous les niveaux » souligne-t-il. Pour le chief data officer de la Mairie de Paris, « l’IA est une belle tête de gondole » mais le défi est celui de la mise en qualité des données et de sa disponibilité. « Dès que l’on a cela, on sait que l’on peut démultiplier les usages. La gestion du temps réel avec des algorithmes, on le fait déjà depuis les années 1980 avec les feux de croisement à Paris ! ». Autrement dit, un cas d’usage qui ne nécessitait pas une grande transversalité des données.

Cette problématique du partage de la donnée n’est pas un problème nouveau, c’est d’ailleurs l’une des raisons de la dynamique d’open data. « Les problèmes sont les mêmes qu’il y a cinq ans », juge Jean-Marc Lazard, CEO du spécialiste français Opendatasoft, qui travaille depuis longtemps avec la ville de Paris. Il estime que le « statut » de la data est heureusement en train de changer grâce à une acculturation de plus en plus forte dans les organisations. « Ce ne sont plus seulement les projets « rocket science » (de pointe, ndlr) qui sont mis en avant. Mais il reste toujours le défi d’organiser les flux de données, de gérer tous les prérequis » analyse-t-il.

Beaucoup d’organisations ne jouent pas encore le jeu

« Pendant la crise, on a à ce titre vu des témoignages différents entre les acteurs publics ou privés qui étaient déjà dans une logique de partage ouvert des données. Ceux-là sont allés beaucoup plus vite sur les actions en matière de commerce, de flux de déplacements, de santé… Et on a vu aussi ceux qui auraient vraiment aimé avoir mieux anticipé le sujet. Ce n’est pas qu’en France, nous avons ces mêmes exemples en Australie, en Espagne ou aux Etats-Unis », décrit le patron d’Opendatasoft. Pour lui, la caractéristique principale des crises est évidemment de générer de l’imprévu. C’est donc bien la capacité à avoir des routines résilientes de partage des données et de l’information qui permet de s’adapter.

A lire aussi : L’intelligence artificielle pour une gestion sanitaire plus résiliente ?

Un défi confirmé par Guillaume Vacher de Magellan Partners : « Le partage de la donnée, sa mise en commun, sa protection, mais aussi la définition de qui en est propriétaire, de qui s’en occupe opérationnellement… Tout cela pèse lourdement sur la faisabilité des projets. » D’autant plus alors que beaucoup d’organisations ne jouent pas encore vraiment le jeu. « On n’y est pas encore : les entreprises veulent encore faire tout de leur côté, avec leurs propres algorithmes, leurs propres modèles pour entrainer l’IA sur leurs propres données… » épingle Arnold Zephir. « A un moment, elles finiront par se rendre compte que c’est en se mettant ensemble qu’elles seront encore plus pertinentes et fortes. Et un jour il y aura sans doute des données avec une approche du bien public liées à la smart city, avec un flux que tout le monde alimentera pour élargir le spectre des usages » espère-t-il.

Le datascientist souligne d’ailleurs que des techniques se développent pour faciliter cette transversalité, comme l’apprentissage mutualisé (c’est-à-dire la capacité d’algorithmes à faire bénéficier différents acteurs d’un apprentissage croisé sur les données des uns et des autres sans les mettre en commun) ou le chiffrement homomorphique, pour analyser des données chiffrées.

Bad buzz et rétropédalages

Cette cité du futur bienveillante est cependant confrontée à d’autres écueils majeurs. « Il faut garder à l’esprit que la réglementation s’applique à partir du terrain : si on a une zone sensible avec des réglementations particulière, tout ce que capte une caméra est soumis à cette législation, même si l’usage n’a rien à voir avec cette sensibilité initiale. Ce risque réglementaire est largement sous-estimé dans la construction des smart city », pointe Guillaume Vacher.

Et par ailleurs, l’acceptabilité des usages proposés par les citoyens restent un point central qui a beaucoup fait parler. Preuve en est le rétropédalage de la RATP, qui avait installé des caméras équipés d’un logiciel pour analyser le port du masque dans le métro dans la foulée du premier confinement. Le regard désapprobateur de la Cnil et le potentiel délétère de l’initiative dans l’opinion publique a fait cesser l’expérimentation dès le mois de juin. « Comment communiquer ces nouveaux usages auprès du grand public est un sujet à part entière », reconnait Guillaume Vacher. « La ville de demain ne peut se construire que dans l’acceptation et il y a beaucoup d’aspects sur lesquels le citoyen n’est tout simplement pas prêt.

Nous avons vu le « bad buzz » à Saint-Etienne quand la municipalité a voulu installer des capteurs sonores pour détecter les pics anormaux de sons dans l’espace public. Dès que le citoyen n’est pas inclus à part entière dans l’expérimentation, il va y avoir un blocage. L’usage d’une caméra n’est à la base pas neutre en soi. Il faut trouver des usages qui n’agressent pas ». Et en la matière, si la crise peut être vu comme un moment unique pour justifier de nouveaux usages « exceptionnels », il est aussi clair que ceux-ci sont extrêmement surveillés, par les citoyens autant que par les autorités, comme le prouve la décision de la Cnil de faire du sujet un de ses points d’attention majeur pour 2021.