IA : Un mille-feuille réglementaire qui freine les start-up  

Avec l’émergence grandissante de l’intelligence artificielle, de nombreuses normes et règles s’accumulent pour tenter de réglementer les usages notamment dans les entreprises qui peuvent s’y perde. Une inflation normale que les start-up ont un certain mal à appréhender. 

Monopolisées par des sujets plus terre-à-terre, les start-up s’emparent peu du sujet des normes liées à l’IA. “Elles ne voient pas directement leur apport”, indique Caroline Chopinaud, directrice générale du Hub FranceIA, une association d’entreprises visant à développer “une IA responsable, éthique et souveraine”.  

Selon une étude menée en Europe par l’organisme, parmi les start-up spécialisées dans l’intelligence artificielle générative (IAG), le financement reste la préoccupation principale avec un montant des levées de 2,37 milliards d’euros sur l’année 2023 contre 14,3 milliards pour l’unique OpenAI outre-Atlantique. “L’Europe ne prend pas assez de risques”, lance Caroline Chopinaud, dans l’auditorium de la Station F, jeudi 1er février. 

Généralisation venue du marché  

Cette mise en application des normes liées au management de l’IA, retardée dans les start-up, pourrait être imposée par les grandes structures, plus organisées. “Cela va venir du marché, des grands utilisateurs et forcer les start-up à s’intéresser à ce sujet”, analyse la directrice générale du Hub FranceIA. L’entreprise Suzan AI accompagne les entreprises à s’adapter aux différentes normes existantes et à venir, liées à l’intelligence artificielle. Jérémie Boullu-Chataigner, président et co-fondateur de l’entreprise, observe l’arrivée de l’IA dans tous les agendas, mais certains partent avec une longueur d’avance. “Dans cette inflation normative, les grands groupes arrivent à naviguer d’un point de vue opérationnel”, explique-t-il.  

Dans cette matinée organisée par le Groupe Afnor autour de la création d’un cadre de confiance pour l’IA, la nouvelle norme ISO 420001 a longuement été évoquée. Cette dernière encadre le système de management de l’IA autour de la mise en place d’une gouvernance éthique, d’une traçabilité des décisions prises par le système d’IA, d’une gestion des risques liés à la technologie et d’une croissance de sa crédibilité. “Il va falloir que tout le monde soit aligné”, indique Jérémie Boullu-Chataigner. “Certaines normes sont des prérequis pour travailler avec des grands groupes ou pour convaincre les investisseurs”, incitant ainsi les start-up à s’emparer de ce nouveau cadre.  

Mille-feuille normatif : utile mais complexe  

Patrick Bezombes, conseiller stratégie en gouvernance de l’IA au sein du Groupe Afnor a tenu à rappeler l’importance stratégique de la normalisation. “Le norme-bashing est dommageable car celles-ci sont partout. S’il n’y a pas de normes, il n’y a pas d’échanges, donc une absence de confiance et de prospérité”. L’arrivée de technologies de rupture peut générer de nouveaux risques, notamment en matière de sécurité des données. Il estime pour autant que les normes ne doivent pas être un frein. “Il faut préserver l’innovation en trouvant un bon équilibre”, juge l’ancien directeur adjoint du Centre Interarmées de Concepts, de Doctrines et d’Expérimentation au sein de l’État-Major des Armées.  

Entre les normes Afnor, les guides de la CNIL, les différentes réglementations européennes, ainsi que les normes spécifiques à chaque secteur d’activité, les start-up se perdent parfois dans ce mille-feuille. “La réglementation est assez floue et complexe concernant l’IA”, juge Caroline Chopinaud du Hub France IA. Paul Houzé, responsable normalisation chez Microsoft France évoque l’importance des règles flexibles et implémentables dans l’ensemble des secteurs.   

Pour Paul Houzé, le cadre proposé par l’AFNOR via la norme ISO 42001, permet d’offrir un cadre de confiance concernant les sujets liés à l’IA dans les organisations. Il exhorte les entreprises et notamment les start-up à s’acculturer. “Il est important de regarder ce qu’il se dit dans les instances en France, mais pas uniquement. Il faut observer les chemins que prennent les personnes qui n’ont pas la même culture concernant la gestion des risques”, explique-t-il.