Alliancy

IA générative : mieux vaut ouvrir son SI et contrôler que de garder les projets en interne 

 

L’adoption rapide de l’IA générative dans les entreprises soulève des défis majeurs en matière de sécurité des données. Eric Antibi, Directeur Systems Engineering chez Palo Alto Networks France, partage sa vision pour relever ces défis.

 

Cet entretien est extrait de notre guide « Déploiement de l’IA à l’échelle : comment gagner en maîtrise face à la démocratisation des usages des collaborateurs ? », qui partage réflexions, méthodes et retours d’expérience pour faire de l’IA un véritable levier de performance collective.Téléchargez ce document ici.

 

Quels enjeux l’adoption rapide de l’IA générative dans les entreprises soulève-t-elle ?

 

Vous faites bien de préciser qu’il s’agit d’une adoption rapide. Un certain nombre d’études tablent en effet sur plus d’un milliard d’utilisateurs d’applications d’IA générative dans le monde d’ici à 2030. Parmi toutes les ruptures technologiques ayant eu lieu durant les trente dernières années, c’est la première fois que le milliard d’utilisateurs est en passe d’être atteint en si peu de temps (en sept ans environ). Comme toute nouvelle tendance technologique ayant un taux d’adoption extrêmement rapide, le déploiement de l’intelligence artificielle générative dans les entreprises soulève la question de la sécurisation des données. La première demande de nos clients est de savoir ce que les collaborateurs consomment comme applications d’IAg. Et quand je parle d’applications d’IAg, cela va bien au-delà du seul ChatGPT : nous avons en effet recensé plus de mille applications SaaS utilisant de l’IA générative. Ces applications vont de l’aide grammaticale à la traduction de textes, en passant par les applications qui résument et analysent les visioconférences auxquelles vous participez. La problématique globale de nos clients est donc d’identifier quelle est l’ampleur du shadow AI au sein de leur organisation, l’objectif étant de supprimer tout risque de fuite de données. Par exemple, un développeur qui fait un copié-collé de ses lignes de code pour voir si un outil peut les améliorer, ne se rend pas forcément compte qu’il diffuse une partie de la propriété intellectuelle de son employeur, sans aucun garde-fou. Nous appliquons le même raisonnement que celui qui a été utilisé il y a quelques années avec les applications SaaS / cloud traditionnelles. Cela s’appelait alors la lutte contre le shadow IT.

La deuxième préoccupation de nos clients concerne le développement interne d’applications intégrant des modules d’IA générative. D’un point de vue cybersécurité, il existe de vrais risques liés à ce genre d’application. En effet, les risques d’attaques par empoisonnement (data poisoning) et de détournements de prompt (prompt injection) sont bien réels. Et ce ne sont que deux des dix familles d’attaques potentielles que l’OWASP Foundation (Open worldwide application security project) a identifiées. Ces risques s’appliquent à tous les éléments rentrant dans la composition d’une architecture applicative d’IAg, que ce soit les moteurs d’IA générative (Mistral, Gemini…), les sources de données (datasets) ou les plug-in permettant de communiquer avec d’autres applications.

 

 

Pour ces deux grandes catégories de préoccupations, quelles solutions proposez-vous ?

 

Pour tout ce qui touche à la première préoccupation, nous fournissons des solutions permettant aux DSI et RSSI de récupérer une visibilité sur les usages liés aux applications SaaS embarquant de l’IA générative. Nous partons en effet du principe qu’il est impossible de sécuriser et de contrôler ce que nous ne voyons pas. Cette visibilité va bien au-delà d’une simple liste d’URL visitées : nous fournissons une véritable cartographie des accès par les utilisateurs à telle ou telle application, nous identifions quels transferts de données ont été réalisés et ce, quel que soit le statut géographique du collaborateur (au bureau, en mobilité, à la maison…). Quand une équipe cybersécurité possède cette cartographie, j’ai envie de dire que 80 % de son travail est fait. Il faut bien entendu ensuite statuer sur ce qui est autorisé ou non, et mettre en place les contrôles et la gouvernance qui correspondent à ces choix. Il faut notamment aller voir les directions métier, échanger avec elles, voir quelles applications sont absolument essentielles. Dans la foulée de ces discussions, il faut aussi mettre en œuvre des plans de sensibilisation des collaborateurs. C’est essentiel si vous voulez maximiser les chances de faire aboutir votre projet de protection.

 

Quid des solutions liées au développement interne de solutions IA générative ?

 

En ce qui concerne les risques liés au développement interne d’applications intégrant des modules d’IA générative, Palo Alto se positionne avec des solutions permettant de détecter toute activité anormale qui pourrait correspondre à un détournement de prompt, à du data poisoning ou tout autre menace venant mettre en danger la supply chain d’une architecture applicative d’IA générative. Nous nous positionnons tout d’abord – via des machines virtuelles qui interceptent les flux – sur les liens réseau qui relient chaque composant à l’application interne d’IA générative. Nous intervenons aussi via un module (AI security posture management – AI-SPM) faisant partie de notre plateforme de protection des applications cloud natives (CNAPP). Ce module permet, dès l’écriture du code, d’analyser ce dernier afin de détecter toute intégration de vulnérabilités. Nous vérifions par exemple qu’un plug-in n’aille pas faire le lien avec une source ou un logiciel qui seraient corrompus ou qui embarqueraient des failles logicielles.

 

Un certain nombre d’entreprises qui interdisent ChatGPT à leurs collaborateurs décident de leur proposer une alternative interne, sécurisée. Que vous inspire ce type de choix ?

 

C’est une très bonne démarche. Elle permet de limiter le risque de fuite de données. Mais il existe un débat ouvert sur la pertinence de ce type de projet. Je connais une entreprise dans le secteur de la défense qui a de grosses contraintes de confidentialité : son retour d’expérience – après son premier cas d’usage d’IA générative en interne (mise en place d’une infrastructure d’IA générative pour de la maintenance préventive) – a été de dire qu’il avait forcément été limité à un moment donné par rapport à la puissance du cloud. L’IA générative va probablement révolutionner un grand nombre de métiers dans les années à venir et donner de réels avantages compétitifs aux entreprises qui vont la déployer. Mon avis est donc qu’il n’y aura bientôt plus vraiment d’autre choix que d’ouvrir son SI et de ne pas tout faire en interne, au risque de brider ses projets. Pour répondre précisément à votre question, je dirais que le déploiement on-premise d’une alternative à ChatGPT est un bon plan B à court terme. Mais c’est une solution limitante à plus long terme. Il vaut mieux ouvrir en externe et contrôler ce qu’il se passe que de rester en interne.

 

Plus globalement, l’IA défensive vous semble-t-elle suffisamment armée pour faire face à l’IA offensive utilisée par les cybercriminels ?

 

Des études très concrètes produites par les chercheurs et consultants en cybersécurité de notre entité de recherche Unit 42, montrent que, grâce à l’automatisation d’une part et à l’IA générative d’autre part, la vélocité des attaques et leur volume sont aujourd’hui démultipliés du côté des cybercriminels. Entre l’intrusion dans un SI et le passage à l’acte malveillant, il pouvait se passer entre trente et quarante jours il y a encore deux ou trois années de cela. Dorénavant, le délai n’est plus que de quelques heures. Le mode opératoire ne change pas fondamentalement, mais la vitesse d’exécution s’accélère fortement grâce à l’IA générative. Palo Alto n’a pas attendu la très grande médiatisation, il y a deux ans, de l’IA générative pour introduire de l’IA dans ses solutions. Nous le faisons depuis plus de dix ans au sein de nos différentes plateformes : modernisation des SOC, protection réseau, détection des menaces… Cela nous permet de faire jeu égal avec les pirates.

 

Quitter la version mobile