Alliancy

IA générative : une adoption en forte hausse, mais une gouvernance encore immature

 

L’intelligence artificielle poursuit son déploiement massif au sein des organisations, avec une adoption croissante des outils d’IA générative. Pourtant, peu d’entreprises disposent aujourd’hui d’une gouvernance réellement structurée pour encadrer ces technologies et en maîtriser les risques. Sécurité des modèles, protection des données personnelles et normalisation apparaissent comme des leviers essentiels pour instaurer une réelle confiance dans ces usages.

 

Selon une enquête menée par McKinsey fin 2024 (McKinsey Global Surveys on the state of AI), 78% des personnes interrogées déclarent que leur organisation emploie l’IA dans au moins une fonction de l’entreprise, contre 72% début 2024 et 55% en 2023. Si l’on se concentre plus spécifiquement sur l’IA générative, 71% des répondants affirment la mettre régulièrement en œuvre dans au moins une de ses fonctions, contre 65% début 2024. Mais en parallèle, seuls 11% des entreprises déclarent avoir intégralement déployé une gouvernance responsable de l’IA. Cette gouvernance repose sur des piliers tels que la gestion des risques, la gouvernance des données, les audits de modèles et la supervision continue, selon une enquête menée auprès de 1 001 dirigeants par PwC.

« En matière d’IA générative, il faut faire la distinction entre les risques non malveillants et les attaques intentionnelles. Les caractéristiques intrinsèques des algorithmes de machine learning et des réseaux de neurones font que des erreurs (hallucinations…) peuvent survenir à tout moment et que le niveau d’explicabilité n’est pas toujours au rendez-vous », déclare Vincent Maret, Associé chez KPMG France, à l’occasion du Forum InCyber 2025. En parallèle de cela, il existe aujourd’hui des milliers d’articles de recherche décrivant des attaques contre l’IA générative. « On y trouve des exemples d’empoisonnement de données, d’insertion de portes dérobées, d’attaques par exemples contradictoires (adversarial examples attacks) et d’attaques par injection d’invites (prompt injection)… Les entreprises doivent se préparer dès maintenant à ces nouvelles techniques malveillantes », précise-t-il.

 

Les données personnelles en première ligne

 

Mais attention, « une autre forme de risque existe, plus insidieuse, qui touche à la donnée elle-même, à sa nature et à sa sensibilité », prévient Imane Dahou, Manager cybersecurity & data protection au sein du cabinet de conseil SIA. Il faut à ce titre rappeler que le Comité européen de la protection des données (CEPD), qui rassemble les CNIL européennes, a adopté fin 2024 un avis sur le traitement de données personnelles pour le développement et le déploiement de modèles d’IA. Selon le CEPD, tous les modèles d’IA ne sont pas anonymes par nature. L’instance européenne considère en effet que les modèles d’IA entraînés à partir de données personnelles ne peuvent pas – par principe – être considérés comme anonymes. L’appréciation doit donc se faire au cas par cas.

Si le créateur d’un modèle souhaite que ce dernier soit considéré comme anonyme, une condition importante doit être respectée : il doit être très peu probable d’identifier directement ou indirectement les personnes dont les données ont été utilisées pour créer le modèle, et d’obtenir des données personnelles du modèle par le biais de requêtes. C’est ce que les experts appellent la « mémorisation de données d’entraînement » par un modèle d’IA. Elle a lieu lorsque le modèle apprend des informations spécifiques à l’ensemble ou à une partie des données d’entraînement de manière accidentelle (surapprentissage) ou non. Elle se caractérise par la possibilité de reconstruire, au moins partiellement, des données d’entraînement par une attaque (attaque par inférence d’appartenance par exemple) ou par un usage normal (requêtes envoyées à une IA générative).

Charlotte Barot, Analyste au sein de la CNIL, commente : « Par défaut, il faut pouvoir montrer que le modèle possède un certain niveau de sécurité. Les mesures de sécurité prises pour un modèle informent la qualification juridique de ce dernier. Cela signifie qu’un modèle très bien sécurisé peut sortir du champ d’application du RGPD, mais cela n’est en aucun cas systématique ».

 

La normalisation au cœur des démarches responsables

 

Dans ce contexte, la normalisation apparaît comme un levier de confiance. Pour Richard Julien, Digital Trust Partner au sein de BSI (British Standard Institution), les normes jouent un rôle structurant. « Une de nos premières missions est de réconcilier les entreprises et leur pratique des risques avec la normalisation […] Les normes ont vocation à standardiser une approche. Chez BSI, nous avons beaucoup travaillé sur l’IA, en amont de l’AI Act, mais aussi avec des autorités comme la CNIL et des entreprises. Les normes ont pour but de protéger les organisations, de les aider à gouverner et anticiper les risques nouveaux, tout en devenant résilientes », explique-t-il.

La norme ISO 42001 spécifie les exigences pour l’établissement, la mise en œuvre, la tenue à jour et l’amélioration continue d’un système de management de l’intelligence artificielle (SMIA) au sein d’une entreprise. Elle traite notamment des considérations éthiques, de la transparence et de l’apprentissage continu. « La norme ISO 42001 s’adresse à toutes les organisations, qu’elles soient qualifiées ‘à haut risque’ de par leur activité, ou de simples PME/TPE et start-ups voulant démontrer que leur trajectoire d’innovation s’inscrit dans une démarche responsable. Elle constitue également un levier d’interopérabilité entre entreprises au niveau supranational, afin de proposer des produits à la hauteur des attentes et exigences des consommateurs », conclut Richard Julien.

 

Quitter la version mobile