Comment mieux encadrer l’IA en Europe selon la juriste Alexandra Bensamoun

Le RGPD donne du fil à retordre aux géants américains… et il serait bienvenu d’en faire de même pour l’IA ! Alexandra Bensamoun, spécialiste en droit de la propriété intellectuelle et du numérique (IP/IT), défendait déjà cette position en 2019 dans son livre : « Droit de l’intelligence artificielle ». Pour Alliancy, elle revient sur le contexte normatif autour de l’encadrement de l’IA en France et en Europe.

Alexandra Bensamoun est professeure de droit privé et de sciences criminelles à l’Université Paris-Saclay.

Alexandra Bensamoun est professeure de droit privé et de sciences criminelles à l’Université Paris-Saclay.

Alliancy. Quelle est la meilleure manière d’aborder la question de la régulation de l’IA ? 

Le couple juriste-scientifique est indispensable. Le scientifique oriente sur ce qui est possible de faire techniquement tandis que le juriste va cadrer ce qui est souhaitable de mettre en place comme normes. La règle juridique est d’ailleurs par définition élaborée à partir de l’état de la technique et des valeurs à un moment donné.

En tant que chercheuse à l’Institut DATAIA de l’Université Paris-Saclay, je côtoie des chercheurs en « sciences dures » tous les jours et cela nous permet, en tant que juriste, de comprendre les enjeux et de proposer des règles pertinentes qui ne sont pas « hors-sol ». La recherche pluridisciplinaire est parfois complexe à mener, mais elle enrichit incontestablement. C’est la même démarche que j’ai pu mettre en œuvre au CSPLA, dans le cadre d’une mission pour le ministère de la Culture sur les enjeux juridiques et économiques de l’intelligence artificielle dans les secteurs de la création culturelle.

Alliancy. Est-ce que le droit est en retard sur la question de l’encadrement de l’IA ?

Le droit n’arrive pas en retard, mais plutôt en temps voulu. Si le législateur intervient trop tôt, cela peut à la fois bloquer l’innovation et rendre la norme rapidement obsolète si elle concerne une situation non pérenne. En revanche, il est tout de même temps de prendre la main car une simple éthique de l’IA ne suffira pas à convaincre les acteurs. Un cadre précis promeut des valeurs et seule la contrainte peut obliger à son respect in fine.

Certes, il ne faut jamais omettre les conseils de Montesquieu et ne légiférer qu’en tremblant. L’inflation de la norme est un mal connu et sur des sujets aussi techniques que l’IA, il faut du recul. Je me rappelle d’une première résolution européenne sur cette question en 2017 qui relevait plus du fantasme que de l’analyse. A ce moment, nous ne parlions pas d’IA, mais de robots, et la résolution du Parlement européen citait Frankenstein, le golem ou encore les lois d’Asimov, confondant réalité et science fiction …

Est-ce que les grands offreurs de technologie n’ont pas trop joué sur ces fantasmes pour vendre plus ? L’idée que l’IA pourrait dépasser l’homme ne vient-elle pas biaiser le jugement des juristes ? 

Un chercheur m’a dit récemment que l’IA est une « opinion humaine encapsulée ». Il y a bien sûr une forme d’autonomie et d’interaction de l’IA avec son environnement qui peut produire des résultats ou entraîner des prises de décision surprenants. Mais il ne faut pas oublier qu’en amont, il y a des humains. 

Il est vrai que nous avons été surexposés à cette culture de la technologie à des fins commerciales. Et c’est dans ce contexte que le débat autour de la personnalité juridique du robot ou de l’IA s’est immiscé. Il est urgent de se départir de cette approche car l’autonomie des IA est trop souvent exagérée. Cela ne veut pas dire que je minimise le progrès mais il faut garder en tête qu’il y a toujours un humain présent dans le développement et le pilotage d’une IA. 

Si nous créons une personnalité juridique pour l’IA, cela signifie qu’elle deviendra à la fois sujet et objet de droit, ce qui n’est pas possible en droit français. Je me suis toujours fermement opposée à cette proposition pour plusieurs raisons. D’abord, la création d’une telle chimère juridique supposerait de redéfinir l’entièreté du droit des biens et même des personnes.  Ensuite, la proposition repose en réalité sur une vision anthropomorphée de l’IA, exagérant sensiblement ses facultés. Enfin, il faut rester attentif aux effets de bord, notamment un sujet de droit – qui a donc la personnalité juridique – a des droits et des devoirs, et est responsable des dommages qu’il cause, ce qui aurait aussi pour conséquence de déresponsabiliser les fabricants, concepteurs d’IA …

Heureusement l’Union européenne, le Conseil de l’Europe, l’ONU…, en réalité toutes les instances intergouvernementales supranationales semblent rejeter cette position. Les textes ne font d’ailleurs plus mention d’IA, mais bien de systèmes d’IA.

Quelle est la vision imaginée par l’UE pour l’IA du futur ?

Elle s’est matérialisée dans la récente proposition de règlement, dite AI Act, du 21 avril 2021. Le texte n’est évidemment pas définitif, mais on voit poindre les principales orientations d’une réglementation de l’IA. Beaucoup d’interrogations se posent encore. Même l’objet suscite la discussion ; les scientifiques considèrent que la définition posée des systèmes d’IA (par renvoi à une annexe) est trop large, contribuant encore à faire de l’IA un argument « marketing ». Aujourd’hui, tout le monde annonce faire de l’IA mais peu en font vraiment…

Quoi qu’il en soit, la notion ne fait pas consensus chez les chercheurs en IA eux-mêmes. Pour autant, le juriste peut très bien se délier du débat technologique.  La notion juridique est normative, elle ne poursuit pas le même objectif que la notion technique. De plus, il arrive souvent au législateur, même européen, de ne pas définir précisément le point d’entrée du droit. : c’est par exemple le cas pour la notion d’œuvre en droit d’auteur (non définie clairement par la loi) ou encore pour la notion de contenus illicites (qui dépend en partie des droits nationaux) dans la proposition de règlement Digital Services Act, dont la présidence française de l’Union semble faire une priorité. 

La loi doit se libérer de la technologie ; on dit qu’elle doit être technologiquement neutre, au risque de subir une obsolescence prématurée. C’était le cas notamment de la loi Hadopi qui n’avait donné de pouvoir à l’autorité que sur le peer to peer alors que la majorité des usages non autorisés en ligne se font désormais via téléchargement direct et streaming…

Que pouvons-nous espérer du AI Act de la Commission européenne et sa pyramide des risques ?

L’intérêt de cette approche est de raisonner à partir de cas d’usage et en termes de risques. Cette manière de graduer les risques est une approche assez contemporaine qui a aussi été choisie dans le DMA (proposition de règlement Digital Markets Act) avec la notion de “gatekeeper” – ces plateformes dont le poids est tel qu’elles contrôlent l’accès à un marché. 

L’AI Act promeut également une approche normative par l’amont, en imposant, pour les systèmes d’IA dits « à hauts risques » un examen ex-ante de conformité. 

Mais la question reste de savoir comment normer la conformité ? Sera-t-elle graduée en fonction des secteurs, des acteurs, de leur poids… ? Il s’agit d’un travail assez complexe qui requiert une harmonisation des corpus existants et l’élaboration de standards.

Et de nombreuses autres questions restent en suspens. Que fait-on de la reconnaissance faciale ? Faut-il l’encadrer ou l’interdire ? Il va falloir se prononcer et trancher. En l’état, la proposition la classe dans la catégorie dont l’usage est prohibé mais en y associant de nombreuses exceptions.

Le front antitrust européen peut-il faire face au lobbying des grandes plateformes sur les leviers normatifs en cours ?

Les opérations de lobbying en cours sont assez étonnantes et elles influencent parfois l’adoption de réformes. Nous avons par exemple assisté à un recul sur le sujet de la responsabilité des plateformes dans la dernière version du rapport de la Commission IMCO (marché intérieur) du Parlement européen, au sujet du DSA, alors qu’Emmanuel Macron promet justement avec ce texte, dans le cadre de la présidence française de l’Union, une meilleure régulation des déséquilibres dans le secteur numérique. 

Le droit est un des outils à disposition du politique pour permettre de rééquilibrer la balance. Le RGPD a par exemple donné du fil à retordre aux géants américains et il serait bienvenu d’en faire de même pour l’IA. Nous sommes dans un contexte de concurrence normative : le premier à intervenir pour fixer un cadre clair va nécessairement influencer les autres du fait de la mondialisation des échanges.

Quels conseils donner aux entreprises qui souhaitent développer des systèmes d’IA conformes ?

D’abord de suivre les évolutions législatives et de ne pas attendre le dernier moment pour se mettre en conformité. L’urgence n’est jamais bonne en la matière. Les compétences juridiques peuvent au besoin être externalisées.

Ensuite de se rassurer, car les politiques ont aussi conscience des difficultés de mise en œuvre. La tendance est plutôt d’exiger des entreprises qu’elles fassent leurs « meilleurs efforts », comme dans la directive 2019/790 sur le droit d’auteur et les droits voisins dans le marché unique numérique (art. 17). L’idée n’est pas de sanctionner la moindre illégalité, mais pour l’entreprise de mettre en place des moyens proportionnés pour éviter cette illégalité. L’obligation est dite de moyens et non de résultat. Si les meilleurs efforts sont faits au vu de l’état de la technique et en considération des capacités de l’entreprise, alors sa responsabilité ne peut être engagée du fait d’un contenu illicite.

Enfin, il est important d’adopter une logique écosystème, de s’ouvrir aux autres pour s’enrichir de compétences pluridisciplinaires en la matière. Soumettre votre système à une expertise juridique aura un coût toujours plus faible que les risques induits par l’utilisation de technologies d’IA.