Benoit Piedallu (Quadrature du Net) : « L’usage de caméras pour détecter les masques est disproportionné »

Pour faire face au covid-19, la RATP utilise ses caméras de surveillance de la station Châtelet-Les Halles afin de détecter si ses usagers portent bien des masques. Une réponse technologique qui inquiète des défenseurs des libertés comme la Quadrature du Net. Benoit Piedallu, membre de l’association, s’inquiète de la banalisation de ce type de dispositifs.

Pour faire face au covid-19, la RATP a annoncé utiliser ses caméras de surveillance à la station Châtelet-Les Halles afin de détecter si ses usagers portent bien des masques.

Pour faire face au covid-19, la RATP a annoncé utiliser ses caméras de surveillance à la station Châtelet-Les Halles afin de détecter si ses usagers portent bien des masques.

Alliancy. Que pensez-vous des caméras de détection des masques que la RATP utilise dans la station Châtelet-Les Halles ?

Benoit Piedallu. Ce n’est pas un projet récent, cela fait déjà plusieurs années que cette zone est sujette à expérimentation. Nous combattons depuis un moment la vidéosurveillance automatisée (VSA), notamment dans le cadre de notre projet Technopolice. Mais avec la crise du coronavirus, elle ressurgit.

Le système d’analyse est géré par la start-up Datakalab – la même qui avait installé des caméras pour la mairie de Cannes. Nous devons agir vite avant que les entreprises ne prennent trop d’aise sur ce sujet.

Ici Datakalab s’occupe du traitement de données que nous estimons être biométrique car elle effectue une analyse du visage des personnes. C’est de la donnée extrêmement sensible qui doit être maniée avec précaution, comme une substance radioactive. On ne peut pas se permettre de la laisser entre les mains de n’importe qui.

Nous ne savons pas ce que fait l’algorithme, c’est une boite noire. Il est assuré que les données sont anonymisées mais cela reste quand même un traitement de données sans l’accord des voyageurs. Il y a donc un problème juridique et une totale opacité du dispositif étant donné que le code n’est pas ouvert.

La loi de 1995 sur la vidéosurveillance prévoit un cadre légal strict sur l’accès au flux vidéo. Il est prévu qui peut y accéder mais surtout, le flux vidéo est détruit au bout d’un mois. Et une fois détruit, il n’est pas possible d’en extraire des informations comme dans le cadre de la VSA. Ici nous avons une affirmation sur la non réutilisation des données mais pas de garantie.

Enquête Nouvelles priorités stratégiques pour la DSI Selon vous ce projet n’est pas souhaitable ?

Benoit Piedallu. L’usage de caméras pour détecter les masques est disproportionné. Nous pourrions engager des personnes qui distribuent des masques et expliquent pourquoi c’est important. La sensibilisation peut être faite en physique au lieu d’aller vers de la surveillance et de la verbalisation. Et il y a déjà eu des dérives. En Seine Saint Denis par exemple, il y a des personnes qui portent plainte car elles ont reçu des amendes après avoir été repérées par de la vidéosurveillance.

Nous considérons que la reconnaissance faciale est une technologie dangereuse, mais les services de police et de renseignement l’estiment nécessaire. Ils cherchent des manières pour que le public accepte alors que le but serait de démontrer que l’on ne peut pas faire mieux sans cette technologie. Le covid est un événement qui permet de pousser ces technologies sur le devant de la scène et d’améliorer cette acceptabilité. C’est une stratégie du choc : profiter du choc social et sanitaire pour imposer des législations et des technologies sécuritaires.

Le principal risque c’est donc l’acceptabilité de la surveillance automatisée ?

Benoit Piedallu. Oui, c’est l’acceptabilité et la banalisation de ce type de surveillance. Ce n’est pas du simple streaming et c’est inquiétant de voir cette normalisation de techniques pour récolter des données à partir de l’espace public. D’autant plus que ces mêmes technologies pourront permettre d’extraire n’importe quelle information à l’avenir.

Nous entendons souvent déclarer : “je n’ai rien à cacher”. Mais ces personnes ne savent pas comment leurs données pourront être utilisées. En fin de compte, cette banalisation risque d’habituer la population à être surveillée, et lui faire accepter des systèmes de reconnaissance automatique. Cela peut devenir un outil de détection permanente et éminemment politique.

Des projets du même type ont vu le jour dans des lycées de Nice et Marseille. Et la CNIL a rappelé l’usage disproportionné de ces technologies fin octobre 2019. Il faut démontrer qu’il n’y a pas d’autres solutions.

Qu’en est-il de Stop Covid et des autres solutions technologiques proposées pour gérer le déconfinement ?

Benoit Piedallu. Stop Covid est prévu de reposer sur le consentement libre et éclairé des personnes. C’est à dire sous aucune pression et avec des informations précises sur le traitement qui sera fait des données. Or la population subit actuellement beaucoup de pression, notamment à la télévision avec des discours qui tentent de convaincre d’utiliser l’appli. Cédric O a par exemple exprimé en début de mois qu’il craint des morts supplémentaires si l’on refuse l’application. C’est une pression qui s’ajoute à celle du milieu social et professionnel. Ce climat peut nuire au consentement libre.

A lire aussi : Jean François Ode (Aviva France) : « Le déconfinement doit être basé sur la confiance. »

Les acteurs sécuritaires profitent de la peur ambiante pour faire passer des mesures. C’est ce que nous appelons du solutionnisme technologique. C’est un moment inédit qui poussent des start-up, voire des grandes entreprises à sortir du bois et proposer des solutions à visage découvert. Elles demandent aux pouvoirs publics de pouvoir tester des solutions qui sont contraires aux libertés fondamentales.

Nous avons par exemple été étonnés par l’annonce récente de la société toulousaine Sigfox, spécialisée dans la commmunication pour objets connectés, qui propose des bracelets électroniques pour gérer le déconfinement, bracelets qui rappellent fortement ceux dont sont équipés les condamnés. Il y a aussi Orange qui a décidé de recycler son service de géolocalisation Flux Vision pour la gestion de la pandémie.

Il faut toujours se demander si un humain ne serait pas plus efficace qu’une machine et qui va garder une trace des données. En réalité le traçage sanitaire des liens est déjà fait depuis longtemps par des humains. En Corée du sud par exemple, plus de 30 000 personnes sont allées sur le terrain pour faire du traçage social. Il est donc possible de gérer l’épidémie sans solutionnisme technologique et tout en responsabilisant les personnes.