Transition écologique : NamR s’appuie sur 900 000 sources différentes pour relever le défi

Alexandre Bacchus est Head of Data de namR, deeptech française spécialisée dans les données au service de la transition écologique. Il détaille les enjeux liés à son activité et à son marché.

Alexandre Bacchus, Head of Data de namR

Alexandre Bacchus, Head of Data de namR

Alliancy. namR vient de fêter son cinquième anniversaire. Quelle est la genèse de l’entreprise ?

Alexandre Bacchus. Nous sommes une deeptech française créée en 2017. La société a développé une base de données enrichies, appelées attributs, permettant de caractériser quantitativement et qualitativement tous les bâtiments. L’entreprise a été créée sous l’impulsion d’un potentiel inexploité des données au service de la transition écologique.

Grâce au développement de l’open data, de l’intelligence artificielle et du traitement de données, nous proposons des solutions d’aide à la décision permettant d’accélérer les projets de transition écologique.

A lire aussi : Le plan de sobriété énergétique est lancé

Les données que vous manipulez portent-elles uniquement sur les bâtiments ? 

La grande majorité de nos données porte sur la caractérisation des bâtiments, mais nous proposons aussi des cas d’usage qui qualifient des territoires. Par exemple, nous pouvons identifier les ilots de chaleur urbains. Les bâtiments jouent bien entendu un rôle dans ce type de détection, mais nous intégrons aussi des données plus larges relatives à l’urbanisation, l’artificialisation des sols, le climat (irradiation solaire, phénomènes météorologiques…) et les grandes tendances socio-économiques et réglementaires.

Quels sont les principaux secteurs consommateurs de vos prestations ?

Les deux secteurs du privé les plus demandeurs de nos services sont l’assurance et la banque. Le sujet assurantiel se compose de deux éléments : l’exposition au risque et la facilitation à la souscription de contrats d’assurance habitation. Concernant l’exposition au risque, qui commence à être prise en compte dans les modèles assurantiels, nous calculons la vulnérabilité d’un bâtiment. Quant à la facilitation à la souscription de contrats d’assurance habitation, nos données servent à réaliser de la complétion d’informations auprès de formulaires de souscription.

Les cas d’usage dans le secteur bancaire sont un sujet plus récent. Ils sont liés aux réglementations sur l’efficacité énergétique des bâtiments qui vont avoir de plus en plus d’impact sur la valorisation des prêts immobiliers. Les banques vont être des acteurs clés pour financer les opérations de rénovation énergétique à venir. L’idée est d’obtenir une vue sur le parc immobilier des clients d’une banque donnée, de manière à identifier les logements et les prêts immobiliers les plus à risque en raison de ce changement de réglementation.

Nous travaillons aussi avec des acteurs de la construction pour évaluer des potentiels d’aménagement et d’urbanisme.

Qu’en est-il du secteur public ?

Dans le secteur public, nous avons là aussi plusieurs cas d’usage. Il y a tout d’abord les vues territoires qui offrent des informations sur les bâtiments qui composent ce territoire, dans une démarche de « tableau de bord ». Nous avons également développé une évaluation du potentiel solaire de tous les toits de France, ce qui intéresse beaucoup les collectivités avec lesquelles nous travaillons, ainsi que les citoyens concernés.

Quels sont les principaux enjeux liés à votre activité ?

La majorité de nos données proviennent de l’open data. C’est une source appréciable, mais il y a besoin d’efforts supplémentaires pour traiter cette donnée et la rendre actionnable. À titre d’illustration, chaque acteur de l’open data possède sa propre manière de représenter les choses. La notion de bâtiment, par exemple, n’est pas du tout la même d’un organisme à l’autre. Notre première mission est donc de récupérer les données sources puis de les rassembler dans une base de données unique.

Nous réconcilions ainsi les données de l’Ademe, qui publie les diagnostics de performance énergétique par adresse, avec celles de l’IGN, qui publie des données cadastrales décrivant les bâtiments en termes de surface, d’empreinte au sol, etc. Notre objectif est de croiser toutes ces informations afin de pouvoir dire que tel bâtiment, à telle adresse, possède telle étiquette énergétique. C’est le premier volet lié à l’open data – le traitement et l’unification – que nous appelons « data fusion ».

Quels sont les volets suivants ?

Le deuxième volet est lié à la reconstruction d’informations. Si je reprends l’exemple des DPE (diagnostics de performance énergétique), l’open data ne nous donne l’information qu’aux endroits où ils ont été opérés. Les 10 millions de DPE réalisés en France ne nous donnent l’information que sur deux ou trois millions de bâtiments. Or, ce qui nous intéresse, c’est d’obtenir cette information sur tout le territoire. Pour compléter l’information issue de l’open data, nous utilisons soit des règles métier assez classiques, soit des modèles de reconstruction basés sur l’intelligence artificielle.

Enfin, dernier volet : celui de la création de données originales. Nous disposons d’un pôle de compétences basé sur la computer vision. Nous mobilisons de l’imagerie aérienne et satellitaire pour détecter certains éléments. J’évoquais précédemment le cadastre solaire qui est très lié aux toits des maisons et des bâtiments. Nous avons développé des algorithmes d’IA pour segmenter les toits, dessiner les contours, déterminer la pente et l’orientation, etc.

Quels sont les chiffres clés que vous pouvez communiquer sur votre infrastructure data ?

Nous disposons d’une douzaine de bases de données différentes, qui interagissent les unes avec les autres. Le volume de notre base principale est de 15 To. Cette base est complétée par toutes les autres bases de données, par des serveurs d’images, etc. Nous avons quelque 900 000 sources différentes dans notre data lake et nous en mobilisons environ 500 pour nos données.