Gouvernance des risques

Face à l’IA, le RSSI refuse de devenir l’épouvantail de l’entreprise

Au Cyber IA Expo, responsables cyber et risk managers ont confronté leurs pratiques face à l’IA générative, entre usages non maîtrisés, industrialisation des attaques et redéfinition du rôle du RSSI. 

Publié le 11 mai

Lecture 5 min.

L’IA n’a pas créé un nouveau monde cyber, elle a mis l’ancien sous amphétamines. Au Cyber IA Expo, les directions cyber ne découvrent pas un risque inédit mais une accélération brutale des risques déjà installés. “L’IA, c’est une révolution technologique, ce n’est pas une révolution au niveau des risques”, a rappelé Arnaud Martin, directeur des risques opérationnels du groupe Caisse des Dépôts. Un diagnostic utile pour éviter les deux pièges phares. D’une part, l’aveuglement enthousiaste des fournisseurs, qui repeignent chaque brique logicielle aux couleurs de l’IA. D’autre part, la panique réglementaire, qui voudrait créer une catégorie de risque à part entière pour chaque nouvel usage. Dans les entreprises, l’IA agit moins comme une météorite que comme un accélérateur de failles déjà connues. Données sensibles exposées, dépendance fournisseurs, vulnérabilités industrielles, usages métiers hors contrôle. Tout s’emballe. “On arrive à un risque systémique avec le phénomène de concentration”, a prévenu Didier Gras, CISO Banque Commerciale en France de BNP Paribas. Le RSSI n’est donc plus seulement gardien du temple. Il devient arbitre d’un compromis instable entre productivité, conformité et résilience. 

Le shadow AI remplace le shadow IT   

La menace la plus immédiate ne vient pas toujours des attaquants. Elle vient aussi du salarié pressé, du métier impatient, du manager qui colle des données confidentielles dans un outil public pour gagner une heure. “Le recours par des salariés à des IA non approuvées est devenu le comportement jugé le plus risqué par 75 % des répondants”, a indiqué Alain Bouillé, délégué général du CESIN. Les entreprises ont passé dix ans à traquer le shadow IT. Elles découvrent désormais son héritier, plus séduisant et plus difficile à contenir. “Si on a une IA approuvée, qui est de qualité, il y aura forcément moins d’appétence à aller chercher des IA ailleurs”, a défendu Didier Gras. La coercition seule ne suffira pas. Les collaborateurs contourneront les interdits si l’outil interne est lent, bridé ou médiocre. Frank Van Caenegem, VP Cybersecurity et CISO EMEA Chez Schneider Electric, se rappelle la première charte IA : “La première copie était autour de comment sécuriser l’IA. Ça faisait surtout peur”. Trop anxiogène, la charte abandonne la liste des interdits pour orienter les collaborateurs vers les bonnes solutions. Un outil sécurisé mais inutilisable fabrique lui-même sa propre zone grise. Une gouvernance efficace, elle, donne un chemin praticable. 

La boîte noire des fournisseurs se fissure 

Mais proposer une voie sans risque d’éboulement suppose aussi de connaître les fonctions des différents outils. Sur le marché cyber, l’IA est devenue un autocollant marketing presque obligatoire. Elle promet de trier les alertes, corriger plus vite, détecter mieux, automatiser davantage. Reste une question simple. Avec quelles données, selon quelles règles, et pour quelle valeur mesurable ? “Il n’y a pas un outil qui ne vous promet pas de l’IA inside”, a observé Alain Bouillé. Pour les grands comptes, la tolérance à la boîte noire diminue. Les éditeurs ne peuvent plus demander une confiance de principe tout en entraînant ou en enrichissant leurs modèles sur des environnements clients critiques. “Ce sont nos data, il faut ouvrir la boîte noire”, a rappelé Didier Gras. Autrement dit, l’IA cosmétique ne passera pas longtemps l’épreuve du réel. Les RSSI veulent de l’industrialisation, pas du vernis marketing.   

La fraude attaque la confiance 

Côté offensif, l’IA ne crée pas seulement des attaques plus élégantes. Elle abaisse les coûts, accélère les cycles et professionnalise la chaîne criminelle. “Il y a un phénomène d’industrialisation”, a alerté Alain Bouillé. Mais le vrai saut se joue dans la falsification de la confiance. Le phishing a longtemps trompé par l’urgence ou par la maladresse. Les deepfakes, eux, changent l’échelle du doute par l'imitation d’une voix, d’un visage, d’une situation de travail. “On est très en retard sur le deepfake”, a-t-il reconnu. Le risque n’est donc pas seulement technique. Il touche les circuits de validation, les relations fournisseurs, les ordres donnés à distance, les réunions en visioconférence, tout ce que les entreprises ont numérisé au nom de l’efficacité. “On casse la relation de confiance entre un client et son fournisseur”, a poursuivi Alain Bouillé. L’IA ofgfensive ne cherche pas toujours à forcer la porte. Elle peut convaincre quelqu’un de l’ouvrir. 

Le RSSI ne peut pas tout porter 

À mesure que les usages s’étendent, l’IA pousse le RSSI dans une zone dangereuse. SI l’outil touche les RH, le juridique, la conformité, la donnée, les métiers, la propriété intellectuelle ou encore l’éthique - le réflexe demeure le même. Quand un sujet paraît risqué, il atterit sur le bureau du RSSI. “Arrêtons de mettre le CISO comme l’épouvantail face à tout sujet à la mode”, a recadré Didier Gras. La cyber sert de services d’urgences pour des problèmes qui relèvent, avant tout, de la gouvernance. Frank Van Caenegem y voit néanmoins une fenêtre d'action. “On m’a demandé de prendre le lead sur l’intégralité des sujets d’IA pour l’entreprise”, a-t-il indiqué. Tout dépend alors de ce que signifie “prendre le lead”. Coordonner, oui. Absorber, non. “On a un rôle moteur pour promouvoir l’utilisation de l’IA, côté cyber”, a expliqué Arnaud Martin, avant de préciser que le rôle global sur l’IA ne devait pas être traité seulement par la direction des risques ou la cyber. L’entreprise doit donc choisir. Gouverner l’IA ou la laisser devenir un millefeuille de responsabilités introuvables.