Rendre l’IA éco-responsable : de la prise de conscience à l’opérationnalisation

La course à la performance de l’intelligence artificielle se double désormais d’une préoccupation d’éco-responsabilité de l’IA. Le sujet reste émergent et beaucoup d’outils manquent encore pour aboutir à des IA frugales.

Rendre l’IA éco-responsableLors du DIMS 2022, Timothée Silvestre du CEA exhortait les responsables de l’innovation à ne pas appréhender uniquement les technologies de rupture sous l’angle de la performance. Ces innovations doivent également tenir compte de la résilience – voire y contribuer directement.

C’est un des enseignements de la crise sanitaire. La crise climatique, elle, encourage à accentuer la prise en compte de la problématique de l’éco-responsabilité des technologies, dont l’intelligence artificielle. Les projets d’IA intègrent de plus en plus la dimension éthique. L’IA responsable va au-delà. Elle tient compte aussi, par exemple, des enjeux de confidentialité des données et environnementaux.

Frugalité de l’IA : prise de conscience, mais manque de maturité

Le mouvement Green AI est cependant encore récent, observe Olivier Matz, responsable de programme R&D en Intelligence Artificielle chez Capgemini Engineering. “Jusqu’en 2019, nous étions dans un paradigme en IA caractérisé par la course à la performance et à la précision”, ajoute-t-il.

Le concept de Green AI se formalise en 2019 à l’initiative notamment de Roy Schwartz. Des travaux mesureront par la suite que l’entraînement des nouveaux algorithmes de NLP pouvait générer jusqu’à 300 tonnes de C02. “Cela équivaut aux émissions de cinq voitures thermiques, en tenant compte de l’ensemble de leur cycle de vie”, précise Olivier Matz.

L’usage de l’intelligence artificielle n’est pas neutre en termes d’impact. En outre, la puissance de calcul nécessaire à l’entraînement des IA augmente de “manière exponentielle.” En l’espace de 6 ans, elle a été multipliée par 300.000, chiffre l’expert de Capgemini.

Didier Gaultier, directeur Data Science & AI pour Business & Decision (groupe Orange) observe par ailleurs une tendance, un automatisme presque, à recourir aux modèles les plus complexes, aussi les plus émetteurs de CO2. Ainsi, le deep learning est “trop souvent un gouffre énergétique”, prévient-il. Et cela s’explique en particulier par le volume important de données d’apprentissage.

Ces constats et indicateurs “démontrent bien que le développement de nouveaux algorithmes d’IA, toujours plus performants, n’est pas soutenable sur un plan environnemental”, insiste Olivier Matz. Cette réalité appelait donc à une prise de conscience, et surtout à des actions. La première est au rendez-vous, du moins dans la communauté académique.

Mesurer la consommation : une étape indispensable

Au niveau industriel, la mise en place du Green AI s’amorce tout juste dans le cadre d’une démarche plus globale axée sur une plus grande frugalité des usages et développements digitaux. Cependant, le niveau de sensibilisation demeure peu mâture. A l’acculturation aux enjeux environnementaux de l’IA doivent par ailleurs s’ajouter des plans d’actions.

Au sein de Capgemini Engineering, les initiatives dans ce secteur se structurent notamment au sein du projet SusAI [Ndlr : sustainability AI], un programme de recherche et d’innovation interne. Sa finalité : réduire l’impact environnemental de l’IA. Cette objectif nécessite d’explorer plusieurs axes de travail, dont le premier est celui de la mesure.

L’entreprise développe donc des outils et référentiels visant à mesurer et quantifier l’impact environnemental de l’intelligence artificielle. Cette mesure permettra dans un second temps d’identifier les leviers de réduction. Leur mise en œuvre nécessitera au préalable de sensibiliser la communauté IA et la diffusion de bonnes pratiques.

Un outil, une librairie, est en cours de développement au sein de Capgemini Engineering afin de monitorer en temps réel la consommation de différents algorithmes en production (computer vision, NLP, assistants vocaux) et de soumettre des recommandations de réduction.

Une première version a été développée, à disposition des équipes internes. Cette version va être enrichie courant 2022, pour être ensuite proposée commercialement à l’externe en 2023. L’année prochaine, Capgemini prévoit également d’élargir les cas d’application de ses référentiels afin “de couvrir la grande majorité des cas d’usage de l’IA en entreprise”.

Un Eco Score pour les algorithmes d’IA

La société souhaite également faire émerger des certifications Green AI. A terme, il s’agirait d’établir un score pour les IA, à l’image de l’éco score ou du DPE dans l’immobilier. Pour faire avancer ce projet, Capgemini Engineering doit s’adjoindre le soutien de partenaires, dont un organisme de certification.

A plus court terme, il est cependant déjà possible d’introduire plus de frugalité dans l’intelligence artificielle. Cela passe par des initiatives plus ou moins complexes. La localisation du datacenter constitue ainsi un levier d’amélioration des émissions de CO2, tout comme le choix du hardware, dont les GPU.

“Des GPU plus récents seront plus coûteux à l’heure, mais leur plus grande performance permet de réduire la facture globale. En outre, leur efficacité énergétique est plus importante. C’est un choix simple à mettre en œuvre, qui permet de gagner sur les aspects coûts et environnementaux”, cite par exemple Olivier Matz.

La diminution de l’impact environnemental ne rime en effet pas nécessairement avec augmentation des coûts et peut même au contraire être synonyme d’économies substantielles.

Dans le cadre de ses fonctions chez Business & Decision, Didier Gaultier a eu récemment l’opportunité de brainstormer sur ces enjeux environnementaux avec des clients et plusieurs collègues ou confrères experts en l’intelligence artificielle. De ces échanges, émergent plusieurs pistes d’amélioration de la sobriété énergétique de l’IA.

Recoder et préparer les données en amont

La première piste consiste à “recoder et préparer le plus possible les données en amont afin de les adapter au mieux à leur exploitation par les algorithmes”, on parle également de données augmentées et enrichies en amont, dans une étape de feature engineering poussée.

“Plus les données en entrée des algorithmes sont nombreuses, pertinentes et adaptées”, plus les résultats seront rapides et simples à obtenir en aval. “Le nombre et la pertinence des features disponibles sont généralement nettement plus importants que la complexité des algorithmes employés.”

« Grâce à des données plus adaptées, on peut alors se permettre d’avoir des algorithmes plus simples”, surenchérit l’expert avec à la clé des bénéfices en matière de frugalité, d’explicabilité, de robustesse, de détection et de correction des biais.

Le directeur Data Science & AI se range également derrière d’autres recommandations consistant à limiter le stockage centralisé systématique de l’intégralité des données disponibles et à promouvoir lorsque c’est possible le “Edge computing” ou encore le “Data Mesh.”

Troisième axe d’amélioration : “Chercher à utiliser en priorité des architectures, des processeurs et des logiciels mieux conçus”. L’optimisation des architectures matérielles comme logicielles est une voie importante, et ce sujet n’est pas sans lien avec le DevOps et le MLOps.

Un mouvement en faveur du data centric AI

Olivier Matz préconise aussi aux data scientists de “choisir le bon framework en fonction de son utilisation.” Notebook, Python, TensorFlow, PyTorch… ces technologies ont les faveurs de ces experts. Mais sur le plan environnemental, “ce sont les pires d’un point de vue énergétique”, lâche-t-il, recommandant des alternatives, des frameworks optimisés et hardware spécifiques pour la mise en production comme OpenVINO et ONNX Runtime.

Des méthodes “plus pointues” de réduction de l’empreinte carbone existent par ailleurs. Olivier Matz cite par exemple le mode de stockage des poids du modèle ou sa précision. Et là aussi ces approches ne dégradent pas la performance, tout en contribuant à réduire la consommation d’énergie jusqu’à 10%.

L’IA frugale passe donc par un travail de sensibilisation des data scientists à des bonnes pratiques de développement. C’est une nouveauté pour des profils qui ne relèvent pas à strictement parler du développement logiciel. Pour réaliser des progrès, Olivier Matz se range enfin derrière le mouvement data centric AI lancé par Andrew Ng en 2021.

“C’est un changement de paradigme. On n’est plus sur du deep learning centré sur un modèle, mais sur les données”, détaille-t-il. En résulte notamment une consommation moindre de données, via par exemple des images de résolution plus faible, pour l’entraînement, et donc une réduction de l’empreinte sur l’apprentissage et le déploiement de l’IA.