Habemus IA Act !

Avocat associé du cabinet Aramis, Benjamin May détaille les principaux points de l’accord intervenu le 8 décembre dernier sur le cadre réglementaire de l’IA en Europe. Également co-fondateur de Naaia, la première solution de pilotage de la conformité et de gestion des risques de l’IA, il revient sur les priorités pour les entreprises.

Benjamin May Avocat associé du cabinet AramisGenèse. 32 mois après la publication de la première version du texte, le trilogue européen (Parlement, Conseil et Commission) a trouvé un accord le 8 décembre 2023 sur l’IA ACT, le règlement européen visant à encadrer l’utilisation des systèmes d’IA (« SIA »).

A lire aussi : [Edito] Quelle IA pour nos services publics ?

L’approche par les risques initialement proposée par la Commission en 2021 est largement consacrée. Le niveau de risque du SIA est échelonné selon trois niveaux : risque inacceptable (pratiques interdites), haut risque et risque limité ou faible. A chaque niveau de risque est associé un socle de règles qui dépend du rôle de l’acteur dans la chaine de valeur de l’IA : fournisseur, distributeur, « déployeur » (c’est-à-dire utilisateur professionnel). Concrètement, le texte fait de certains SIA des produits réglementés dont la mise sur le marché est encadrée par un contrôle des risques et des obligations de sécurité renforcées, des obligations de certification et la mise en place d’une « IA vigilance », à l’instar de ce qui se pratique dans l’industrie pharmaceutique.

Dans la dernière ligne droite, la discussion politique s’est focalisée sur deux points d’achoppement : le recours à l’IA dans les systèmes de reconnaissance des personnes, et le sujet de l’encadrement des « modèles de fondation » (foundation models) qui constituent le socle de la plupart des IA génératives.

Le compromis trouvé par le trilogue est largement commenté et pris en tenaille entre les pro-régulation et pro-innovation. Cependant, même si le texte doit encore être finalisé, l’essentiel des principes semble désormais figé. Pour les entreprises, c’est un challenge de taille qui s’ouvre dès maintenant : celui de la gouvernance de l’IA.

A lire aussi : IA Act : une régulation de façade sur fond de dépendance américaine

Ce que les entreprises peuvent (et doivent) déjà anticiper. La consécration de l’approche par les risques implique que les entreprises soient en mesure de qualifier leur rôle dans la chaine de valeur de l’IA – à savoir au sens du texte, fournisseur, distributeur ou déployeur (utilisateur professionnel) -, de cartographier les interactions et usages de SIA et d’être capable d’évaluer le niveau de risque que des usages de l’IA. Le vocable SIA « à haut risque » est trompeur. En réalité, il concerne tous les usages, même les plus communs, dès lors qu’ils ont des conséquences sur les êtres humains : les outils de sélections de CV, les IA embarquées dans les infrastructures ou les moyens de transport, l’éducation, la santé, les services financiers, etc. Qu’on ne s’y trompe pas : toutes les entreprises seront utilisatrices, voire fournisseurs ou « déployeurs » de SIA à haut risque : un récent sondage montre qu’en moyenne 20% à 40% des SIA dans l’entreprise peuvent être qualifié « haut risque ».

Sans surprise, les plus fortes contraintes pèseront sur le fournisseur du SIA à haut risque, qui devra respecter des normes strictes en matière de précision, de robustesse, de transparence, de cybersécurité mais aussi de reporting, en sus des principes généraux applicables à tous les SIA indépendamment de leur niveau de risque (contrôle humain, solidité technique et sécurité, protection de la vie privée, non-discrimination etc.). Cependant, le texte prévoit également des obligations applicables aux déployeurs de SIA à haut risque : le déployeur devra mettre en place, en amont du déploiement du SIA, une étude d’impact aux fins d’identifier les risques d’atteinte aux droits fondamentaux, des mesures techniques et organisationnelles pour assurer une utilisation conforme à la notice d’utilisation du SIA, des organes de contrôle afin d’être en mesure de signaler un incident de sécurité au fournisseur du SIA mais aussi aux autorités de contrôle compétentes. Le texte prévoit également une obligation de conservation des journaux automatiques par les déployeurs comme élément attestant de leur conformité réglementaire.

L’IA ACT, avec des amendes pouvant aller jusqu’à 35 millions d’euros ou 7% du chiffre d’affaires mondial annuel, va hisser le sujet de la gouvernance de l’IA au rang de priorité.

Les enjeux de l’accord du trilogue. Non publié pour le moment, l’accord traite principalement de deux points de crispation que sont d’une part la régulation des modèles de fondation (désignés désormais sous le vocable de general purpose AI ou « GPAI ») et d’autre part l’extension de la liste des SIA interdits à certains cas d’application comme la reconnaissance faciale biométrique.

Concernant la régulation des modèles de fondation, l’accord renie la philosophie initiale qui consistait à réglementer l’usage et non la technologie elle-même. Il intègre un nouveau critère, inspiré du décret exécutif américain publié par l’administration Biden en octobre dernier, lié à la puissance de calcul en Flops (Floating operation per seconds) du SIA. Une approche à deux niveaux est ainsi retenue : l’IA Act imposera des obligations aux modèles les plus puissants présentant des risques systémiques. Le seuil de déclenchement proposé à 10^25 flops exclut cependant la majorité des modèles GPAI existants. A ce jour seuls les modèles d’OpenAI (GPT4), d’Inflection et éventuellement le dernier né de Google (Gemini) seraient au-dessus du seuil proposé. Quant aux plus « petits » modèles GPAI en deçà du seuil, ils ne seront soumis à des obligations transversales : transparence, mais aussi de respect du droit de l’UE en matière de propriété intellectuelle.

Le texte confirme également l’exclusion des systèmes d’IA en open source du champ d’application de l’IA Act sauf lorsque ces derniers répondent aux critères de définition d’un modèle GPAI à risque systémique ou à d’un SIA à haut risque.

La liste des SIA dits à risque inacceptables et dont la conception et l’utilisation seront interdites dans l’UE est étendue afin de viser les SIA permettant l’extraction non ciblée d’images issues d’internet ou de vidéosurveillance, la reconnaissance des émotions au travail ou à l’école, le social scoring, ainsi que la prédiction des cas de récidive en matière délictuelle et criminelle. L’accord prévoit, dans le cadre d’exemptions qui ont été au cœur des discussions politiques, d’autoriser l’identification biométrique à distance par les forces de l’ordre dans les espaces publics pour la prévention de menaces terroristes, la recherche de victimes d’enlèvement, ou d’identification de personnes soupçonnées de crimes.

La mise en place de bonnes pratiques en marge de l’IA ACT. Dans l’attente de l’entrée en vigueur des règles contraignantes l’IA Act, on peut noter plusieurs initiatives coordonnées aux fins d’établir des bonnes pratiques communes en matière de cybersécurité et d’IA. Par exemple, des « Guidelines for Secure AI system development », rédigées à l’occasion de l’AI Security Summit de novembre 2023 et ratifiées par l’ANSSI aux côtés de 17 autres agences gouvernementales de cybersécurité (notamment celles des Etats-Unis et du Royaume-Uni). Ces guidelines bien que non contraignantes, inciteront les entreprises à concevoir des modèles « secure by design » et contiennent 17 lignes directrices à suivre en matière de conception et de déploiement sécurisé d’un SIA. La question de la sécurité des données d’entrée appliquée aux IA génératives est cependant absente.

On pourra également rappeler la récente déclaration d’Hiroshima, publiée dans le cadre du dernier G7 d’octobre 2023, établissant un Code de conduite international pour les SIA « avancés ». Au rang des actions à entreprendre sont visés les investissements dans des contrôles de sécurité solides, dans la cybersécurité et la protection contre les menaces internes tout au long du cycle de vie de l’IA

Enfin, la Commission Européenne a lancé le 15 novembre 2023 l’« AI Pact », invitant les entreprises concernées à échanger sur les bonnes pratiques à mettre en place, dans l’objectif de se conformer aux principes érigés par l’IA Act. La Commission appelle d’ailleurs les entreprises intéressées par cette démarche à s’inscrire afin de participer à une première réunion début 2024.

Calendrier et entrée en vigueur. Des travaux de finalisation de l’IA Act se poursuivront au cours des prochaines semaines. A l’instar du RGPD, une période transitoire de deux ans après sa publication au Journal Officiel est prévue, avec des exceptions pour certaines dispositions spécifiques : en matière d’IA interdites, la période transitoire est réduite à 6 mois et concernant la régulation des modèles de fondation à 12 mois. La course à la mise en conformité pour les entreprises a déjà débuté, avec pour ligne d’arrivée, la pleine application de l’IA Act pour la fin de l’année 2025 voire le début de l’année 2026.