Alliancy

L’avocate Claire Poirson prône un RGPD de la reconnaissance faciale

La reconnaissance faciale se développe très rapidement : onze pays européens ont déjà déployé cette technologie, selon un rapport commandé par les eurodéputés Verts. De son côté, l’ONU s’inquiète des risques liés à son déploiement, en particulier lors de rassemblements publics. C’est dans ce contexte que l’avocate associée au cabinet Bersay Claire Poirson a contribué à un rapport du Forum Économique Mondial sur les pistes envisagées pour mieux encadrer juridiquement le recours à la reconnaissance faciale. Entretien. 

Claire Poirson, avocate associée au cabinet Bersay.

Claire Poirson, avocate associée au cabinet Bersay.

Alliancy. En quoi consistent votre métier et votre participation au dernier livre blanc du Forum Économique Mondial sur la reconnaissance faciale ?

Claire Poirson. J’exerce en tant qu’avocate associée au cabinet Bersay depuis trois ans avec principalement deux domaines d’intervention : les nouvelles technologies et les données personnelles d’une part, et la propriété intellectuelle et industrielle d’autre part. Mon travail consiste, par exemple, à conseiller les entreprises à se conformer à la réglementation sur les données personnelles (au fameux RGPD), à gérer les aspects juridiques d’une attaque en cybersécurité  ou encore à mettre en place plus globalement une gouvernance de la donnée au sein de l’entreprise.

Je travaille également à penser le droit de demain afin de répondre aux attentes de nos clients dont les technologies sont de plus en plus poussées. À ce titre, je participe à un certain nombre de travaux ayant pour objet d’encadrer la technologie de la reconnaissance faciale (« RF »),  technologie qui permet de reconnaître le visage d’une personne afin soit de se faire authentifier, soit d’être identifiée dans une foule. J’ai ainsi eu l’opportunité de collaborer sous l’égide du Forum économique mondial  et d’Interpol – avec un certain nombre de praticiens scientifiques et chercheurs en IA – au livre blanc qui vient de paraitre et qui propose un encadrement normatif et éthique à l’usage de cette technologie par les forces de l’ordre.  Il s’agira, d’établir des règles claires sur les usages par la police dans le cadre de leurs enquêtes, les maitres-mots étant la transparence vis-à-vis des citoyens et la robustesse de la technologie utilisée. 

La reconnaissance faciale fascine autant qu’elle effraie, victime de ce que j’appellerais le « double paradoxe du numérique » : nous avons globalement peur de cette technologie lorsqu’elle est utilisée par les pouvoirs publics tout en ayant une forte attente en termes de sécurité. De même, nous n’hésitons pas à y avoir recours massivement dans la vie de tous les jours auprès d’opérateurs privés alors que nous ne savons pas – et ne voulons pas toujours savoir – ce qu’ils font précisément de nos données personnelles. Le fait de ne pas encadrer la technologie de RF génère a posteriori des effets pervers tant sur la robustesse de la technologie que sur ses usages dans notre vie. Il est grand temps de réguler.

De quels biais s’agit-il ?

Claire Poirson. Il y a tout d’abord les biais statistiques : dans le cas où un algorithme prend sa source dans une base de données faussée et qui ne représente pas toute la société. Ils sont aussi cognitifs, car trop souvent ces algorithmes sont conçus, développés, testés par et parfois pour une même population, des hommes blancs. De manière mécanique, la technologie ne s’éprouve pas puisqu’elle ne prend pas assez compte de la diversité.

C’est le même problème constaté dans le milieu de la tech, où le manque structurel de femmes devient problématique. La conception biaisée de la technologie se répercute dans son utilisation en pratique : l’algorithme en s’entraînant sur une base de données non représentative reproduit de facto ces biais et devient discriminant. Finalement les data sont créées par nos usages et nos comportements, des choix avant tout humains sur lesquels l’algorithme va s’entrainer. C’est ainsi que dans le sillage du mouvement « Black Lives Matter », les géants américains du numérique ont décidé de suspendre leurs projets dans la reconnaissance faciale, accusée de reproduire des biais ethniques lorsqu’elle est utilisée par la police.

A-t-on raison d’avoir peur de la reconnaissance faciale ? Ne va-t-elle pas mener à plus de surveillance ?

Claire Poirson. La majorité des messages aujourd’hui se focalise sur des affaires de scandale et résultat : les citoyens s’affolent. Mais beaucoup d’entre eux utilisent déjà de la reconnaissance faciale pour déverrouiller leur téléphone. D’autres ont aussi largement eu recours à FaceApp, une application mobile permettant de faire vieillir son visage, sans savoir qu’une entreprise russe en était à l’origine et surtout sans savoir ce que cette entreprise faisait après des photos de leur visage (actuelle et vieillissante). 

Cette technologie a des avantages non négligeables : elle permet à titre d’illustration aujourd’hui de capter l’endormissement des conducteurs pour limiter les accidents de la route. Elle peut améliorer la vie d’un patient dans son parcours de soin en restant à domicile. Des pistes parmi tant d’autres où la reconnaissance faciale prend tout son intérêt et améliore la vie quotidienne de gens. 

Doit-on inclure les géants du web dans l’encadrement de la reconnaissance faciale ?

Claire Poirson. Cette gouvernance de l’algorithme de RF – à l’image de la gouvernance de la donnée prévue par le RGPD – doit bien sur permettre une régulation des agissements des grands acteurs du numérique.

Les Gafam sont d’ailleurs très demandeurs d’un cadre de régulation pour mieux déterminer ce qu’ils peuvent développer ou déployer. Le droit est la source de sécurité juridique dans le développement de leurs activités.

En Chine, le maitre-mot est la surveillance des usages que l’on fait des données.  Les autorités chinoises veulent évidement contrôler l’usage de ces technologies par les grandes entreprises technologiques et sont en train de mettre en place des mesures de régulation et de surveillance assez drastiques. Ce n’est pas pour des raisons éthiques mais essentiellement par peur de perdre la souveraineté étatique.

D’un point de vue de l’Europe, il est surement temps de faire preuve davantage d’un certain protectionnisme européen afin d’assurer la compétitivité technologique de nos entreprises. Il faut être proactif pour éviter de se faire dépasser comme sur le cloud ou les réseaux sociaux. Et nous avons la chance d’avoir un modèle européen qui peut permettre à la fois le respect des principes démocratiques liés à la vie privée et la préservation de la compétitivité de nos entreprises. C’est un modèle dont nous pouvons être fiers et qui doit être valorisé.

En temps de crise, l’acceptation de la technologie – et ses dérives – se fait plus facilement… Est-ce aussi le cas pour la reconnaissance faciale ?

Claire Poirson. Nous avons plutôt affaire à un effet contraire sur la question. Dans un contexte inédit de restrictions des libertés, l’adoption d’une régulation de la reconnaissance faciale ne peut que prendre du retard. Par exemple, la France vient d’annoncer refuser son usage pour authentifier les journalistes accrédités pour les prochains Jeux Olympiques. 

Il y a un gros travail de pédagogie à mener sur ces enjeux en France. C’est en ce sens que les politiques et l’ONU demandent majoritairement aujourd’hui un moratoire sur la reconnaissance faciale, constatant que les citoyens ne sont pas prêts, mais également eux aussi.

Il est bien sur souhaitable de voir émerger une régulation de la reconnaissance faciale, à l’instar du RGPD.

Comment faire pour lutter contre ces biais algorithmiques ?

Claire Poirson. De manière générale, je suis convaincue de la nécessité d’un vrai cadre de gouvernance car il ne suffit pas de déporter la responsabilité sur le fournisseur de RF. Il faut établir des critères stricts à tous les niveaux : sur la conception, le développement, le reporting et la vérification des algorithmes mis en place mais aussi sur ses usage.

La police et Interpol sont d’ailleurs demandeurs de cette régulation pour pouvoir bien faire les choses. L’idée d’une police qui souhaite tout contrôler et surveiller est inexacte : ils veulent juste faire leur job !

Il faut que les scientifiques, les juristes, et les services de police travaillent de concert pour concevoir des technologies fiables.  Il faut par exemple travailler sur les biais à plusieurs car ce n’est pas l’algorithme qui est biaisé, mais bien toute la chaine humaine du concepteur à l’utilisateur. Sur les bases de données sur lesquelles l’algorithme s’entraîne, celles-ci doivent bien évidement être représentatives de l’intégralité de la population.

Etant donné que Xi Jinping et Poutine sont les grands absents de la COP26, est-ce que vous pensez qu’ils seront plus ouverts à la discussion sur la reco faciale dans le cadre des discussions de l’ONU ? 

Claire Poirson. Si nous mettons en place notre cadre à l’européenne sur ce sujet, le règlement devrait avoir à l’instar du RGPD et du projet de règlement de l’IA en cours de discussion une portée extraterritoriale : c’est-à-dire qu’il s’appliquera notamment aux fournisseurs de technologies établis dans un pays tiers qui mettront sur le marché des systèmes de RF dans l’Union européenne. Des sanctions en cas de non-respect de nos principes seront bien évidement prévues. 

Certaines associations comme la Quadrature du Net, affirment que ce recours à la reconnaissance faciale par la police est un risque non équivoque…

Claire Poirson. À les écouter, nous devrions arrêter le numérique, les drones et la surveillance en général. Mais c’est à mon sens encore plus dangereux car l’interdiction de technologies laisse place à beaucoup de dérives dès lors qu’elles reviennent dans notre pays. Il ne faut surtout pas freiner les innovations qui sont sources de progrès sociaux et économiques. L’équilibre doit être trouvé. Il n’est pas aisé mais il est évidemment essentiel.

Quitter la version mobile