Dans une récente étude, l’entreprise américaine spécialisée en cybersécurité Netskope révèle une hausse de 50 % de l’utilisation des plateformes d’IA générative, exposant les entreprises au Shadow AI. Pour gérer ce risque, elle recommande des contrôles renforcés, une surveillance et une évaluation continues des outils utilisés.
Le 19 août dernier, Netskope a publié une étude révélant une augmentation de 50 % de l’utilisation des plateformes d’IA générative (GenAI) dans les entreprises, au cours du trimestre terminé en mai 2025. Cependant, cette adoption croissante, bien que bénéfique pour l’innovation, expose les entreprises à de nouveaux risques, notamment ceux liés au Shadow AI (l’utilisation d’applications d’IA non agréée) d’après l’entreprise fournisseuse de solutions de SASE (Secure access service edge, service cloud permettant de combiner des fonctions réseaux et de sécurité, NDLR). Selon ses chiffres, actuellement, plus de la moitié des applications adoptées proviennent du Shadow AI.
Convergence entre innovation et sécurité
“Les plateformes GenAI accélèrent la connexion directe des datastores d’entreprise aux applications d’IA, mais la généralisation de cet usage crée de nouveaux risques pour la sécurité des données d’entreprise, renforçant de fait l’importance de la prévention contre les pertes de données (DLP), et des dispositifs de surveillance et de sensibilisation continues”, pouvons-nous lire dans le rapport. Selon ce dernier, les entreprises sont de plus en plus nombreuses à utiliser des plateformes telles que Microsoft Azure OpenAI (29 %), Amazon Bedrock (22 %) et Google Vertex AI (7,2 %). Cette évolution fait émerger des défis pour les équipes de sécurité, qui doivent trouver un équilibre entre innovation et sécurité.
Un bond des applications SaaS d’IA générative
Les sociétés explorent également des solutions d’IA sur site, notamment via des GPU locaux ou des interfaces avec des plateformes SaaS GenAI. Aujourd’hui, selon l’étude, 34 % d’entre elles utilisent des interfaces de modèles de langage (LLM), avec Ollama en tête (33 %). Par ailleurs, des outils comme GitHub Copilot sont utilisés dans 39 % des entreprises, et une majorité d’entre elles font des appels API vers des plateformes comme OpenAI. Ainsi, Netskope surveille désormais plus de 1 550 applications SaaS d’IA générative, un bond par rapport aux 317 applications observées en février 2025. Toujours selon le rapport, l’utilisation des applications IA en entreprise continue d’augmenter, notamment avec des outils comme Gemini et Copilot. Toutefois, ChatGPT a vu sa popularité baisser, tandis que d’autres applications comme Anthropic Claude et Grammarly ont gagné du terrain.
Encadrer l’essor
Pour gérer cette adoption rapide de l’IA générative, Netskope recommande, à travers le rapport, plusieurs mesures. Dans un premier temps, l’évaluation des outils d’IA générative utilisés afin d’identifier quelles applications sont employées et par qui. Dans un second temps un renforcement des contrôles de sécurité : interdire l’utilisation d’applications non approuvées et mettre en place des mécanismes de blocage robustes. Ensuite, une surveillance continue afin de suivre l’utilisation des plateformes GenAI pour repérer les instances de Shadow AI et se conformer aux normes de cybersécurité. Pour finir, la mise en place de processus de gestion des risques adaptés, dans le but d’identifier les risques liés spécifiquement à l’utilisation non approuvée des agents IA et afin de faciliter la collaboration avec les équipes, notamment métier, pour limiter leur impact.
