Le consortium AISIC, peut-il créer des standards mondiaux pour une IA de confiance ?

[Série IA & Confiance 3/4] Créé pour établir des normes et des lignes directrices pour la sécurité et la fiabilité de l’intelligence artificielle, l’U.S. Artificial Intelligence Safety Institute Consortium (AISIC) et ses 200 membres souhaitent rendre l’IA sûre et responsable.

Face aux préoccupations quant aux enjeux de sécurité et de responsabilité, le Département du Commerce des États-Unis a souhaité encourager la collaboration autour du développement d’une IA de confiance, en créant l’U.S. Artificial Intelligence Safety Institute Consortium (AISIC), hébergé par le National Institute of Standards and Technology (NIST).

Fondé en février 2024, ce consortium compte aujourd’hui plus de 200 entreprises technologiques, startups, universités, agences gouvernementales et ONG afin de développer des normes, des lignes directrices, des outils mais aussi des méthodes pour assurer la sécurité et la fiabilité des technologies de l’IA. Ses missions, concentrées autour de 5 groupes de travail, portent notamment sur l’évaluation des capacités de l’IA, la promotion de pratiques sécurisées pour l’IA générative, la création d’environnements de test, et le développement de compétences liées à l’IA.

« Le président Biden nous a demandé d’utiliser tous les leviers pour accomplir deux objectifs clés : définir des normes de sécurité et protéger notre écosystème d’innovation. C’est précisément ce que le Consortium pour la Sécurité de l’Intelligence Artificielle des États-Unis nous aidera à faire » a déclaré Gina Raimondo, secrétaire du Département du Commerce des États-Unis.

Établir de nouvelles normes pour une IA fiable et sécurisée

Le consortium offre aux parties prenantes l’opportunité de partager leurs connaissances et établir des normes pour encourager un développement responsable de l’IA. La promotion de nouvelles pratiques sécurisées, telles que les model cards, et le développement de capacités d’évaluation et de benchmark, favorisent ainsi la création d’outils utiles pour le développement d’une IA sûre et fiable et incitent aux développements. Ainsi, par exemple, des membres du groupement (Google, Microsoft, Open AI, Anthropic…) ont développé le Frontier Model Forum, destiné à favoriser un développement sûr et responsable d’IA.

« L’apport de normes, d’éléments d’acculturation et la facilitation des collaborations internationales et d’une diversité d’acteurs sont des contributions notables que l’on peut observer dès maintenant » ajoute Laurent Pecqueux, Directeur associé en charge de la Data Intelligence et IA au sein de la société de conseil Oresys. « Le consortium est notamment un lieu qui permet de favoriser les collaborations et les échanges d’expertise entre les acteurs, grâce à des investissements qui permettent de faire avancer concrètement les sujets. Concomitant aux actions du consortium, je trouve intéressant de citer, à titre d’exemple, le framework Model Cards de Google (permettant de développer une transparence du modèle en précisant le cadre d’usage, mesures de la performance, données d’entraînement…) dont l’adoption est encouragée par le gouvernement US au travers de NIST et l’AISIC. »

Un consortium à la portée limitée 

Le consortium n’est pas un organisme de réglementation, ce qui peut limiter son impact : ces actions auront de l’intérêt pour ceux qui voudront bien les appliquer. Il ne dispose d’aucun pouvoir coercitif. De plus, celui-ci étant centré actuellement sur les Etats-Unis, cela peut restreindre la collaboration internationale, tandis que le nombre élevé de membres peut rendre la gouvernance complexe.

« Avec un aussi grand nombre d’acteurs, se posent les questions de la gouvernance effective, des interactions et du leadership relatif à ce type de consortium. La question des intérêts respectifs de chacun peut aussi se poser entre intérêts du secteur privé d’une part, notamment du poids de certaines organisations privées et les intérêts publics. » complète le directeur associé d’Oresys « Sous une forme potentiellement différente et peut-être verticalisée, je suis convaincu que ces collaborations sous des formes de consortium sont amenées à s’étendre et constituent un réel apport pour développer et promouvoir une IA de confiance et sécurisée. » 

Les collaborations entre métiers, faiseurs d’IA, éditeurs et chercheurs créent un espace où les idées peuvent être échangées et où des solutions innovantes peuvent émerger. La diversité des membres du consortium constitue également une force, permettant de bénéficier d’une large gamme d’expertises et de points de vue. Par exemple, MongoDB souhaiterait apporter son expertise au consortium afin de mettre au point des systèmes logiciels, hautement performants, fiables et sécurisés ou des technologies d’ancrage vectoriel, de stockage et de récupération qui alimentent les systèmes d’IA à grande échelle.

« Les consortiums sont importants car, si nous ne mettons pas face à face les juristes, les décideurs politiques et les techniciens, la réglementation ne tiendra pas la route. Nous avons besoin de plus de collaboration pour innover » affirme Roxona Rugina, directrice exécutive du collectif Impact AI. « Que ce soit axé sur la sécurité ou sur la responsabilité des entreprises, il faut créer des collectifs car les enjeux sont collectifs. Il est essentiel de permettre à tous d’avancer. Ensemble, nous pouvons réfléchir sur la manière dont nous utiliserons l’IA pour des fins positives et inclusives.. »