Alliancy

« L’IA ne doit pas être un prétexte pour consommer toujours plus de ressources » 

Alors que l’IA générative démultiplie les usages et les besoins en infrastructures, Ludovic Moulard, Global Sustainability Director de fifty-five, appelle à une approche lucide : privilégier les cas à forte valeur, mesurer les impacts de façon transparente et fixer des limites claires pour éviter la surconsommation de ressources. 

 

Pourquoi avoir lancé ce rapport sur l’impact environnemental de l’IA générative ?
 

Nous appartenons au BrandTech Group, dont la mission est d’aider les marques à se développer « better, faster, cheaper » grâce à la technologie. Depuis quatre ans, nous travaillons sur l’impact environnemental du numérique appliqué à nos activités : campagnes publicitaires, sites web, outils de mesure. Nous cherchons à savoir ce que représentent nos actions, puisque l’essentiel de notre empreinte vient des usages que nous déployons pour nos clients, souvent de grands groupes. Avec l’IA générative, la responsabilité s’amplifie. Ce n’est pas l’IA au sens large qui est en cause, le machine learning existe depuis plus de 50 ans, mais les volumes de données et les capacités de calcul mobilisés par les modèles génératifs. Ils nécessitent des infrastructures de grande taille et consomment une énergie non négligeable. On ne pouvait pas continuer à recommander des cas d’usage à nos clients sans savoir précisément ce qu’ils impliquent. C’est pour cela que nous avons décidé de lancer cette étude avec The Brandtech Group et Scope3. 

 

Comment fonctionne l’outil de calcul de l’impact carbone que vous avez développé dans votre rapport ?
 

Ce n’est pas une formule magique qui calcule tout automatiquement. Nous partons de l’état de l’art, notamment des jeux de mesures publics publiés sur Hugging Face et nous enrichissons ces données avec nos propres points de mesure. Là où les travaux existants évaluaient surtout de petits modèles sur un périmètre limité de tâches, nous avons cherché à aller plus loin. Nous avons testé des modèles plus gros, des types de prompts différents et des scénarios variés pour comprendre où se situe le véritable niveau d’impact. L’objectif est d’aboutir à des ordres de grandeur fiables. Pas de chercher trois décimales après la virgule sur des wattheures, ce qui n’a pas de sens en pratique. Ce qui compte, c’est de savoir si l’impact est plus fort ou plus faible selon tel modèle, tel usage, telle localisation. 

 

Concrètement, que peut faire un marketeur avec ce calculateur ?
 

Un exemple : si une entreprise souhaite générer automatiquement des descriptifs produits chaque semaine avec un modèle comme GPT-4o, notre calculateur permet d’estimer ce que cela représente en consommation d’électricité, en émissions de CO₂ ou en consommation d’eau. Ce n’est pas réservé à des experts techniques. Le but est que n’importe quel professionnel du marketing ou de la communication puisse manipuler l’outil et obtenir une estimation simple et utile. Ensuite, il peut identifier les leviers pour réduire l’impact : fréquence, taille du modèle, localisation des serveurs, etc. Enfin, tous nos chiffres sont publics. Si d’autres chercheurs veulent les reprendre, les compléter ou les contester, ils le peuvent. L’enjeu est d’ouvrir un chantier collectif. 

 

Le plan gouvernemental « Osez l’IA » a été lancé avec 200 M€. En quoi résonne-t-il avec votre étude ? 

 

L’investissement mondial dans l’IA est colossal, sans précédent sur une durée aussi courte. Il serait illusoire pour la France de rester à l’écart. Mais la seule question qui vaille est : « Oser l’IA, pour quoi faire ? ». Car toute technologie a des inconvénients et des impacts négatifs. Si nous investissons massivement, il faut s’assurer que les cas d’usage apportent une vraie valeur à moyen et long terme. La France a des atouts. Nous disposons d’un mix électrique moins carboné que la plupart des pays, et nos normes environnementales sont plus exigeantes. C’est une chance si nous savons en tirer parti. Mais cela ne doit pas être le prétexte pour multiplier des usages récréatifs ou peu utiles, qui consommeront beaucoup d’énergie sans bénéfices réels. 

 

Comment réduire concrètement l’impact d’un cas d’usage ? 

 

Un premier levier, c’est la localisation. Prenons une campagne créative déclinée automatiquement en plusieurs langues. Si je fais tourner le modèle dans un data center américain alimenté au charbon, l’empreinte carbone est bien plus lourde que si je choisis un hébergement en Europe, avec un mix électrique plus sobre. À périmètre équivalent, l’impact peut être divisé par deux voire quatre. Un deuxième levier est la formation. Selon les données que nous avons observées, certains utilisateurs font entre 10 et 50 itérations avant d’obtenir une image satisfaisante. C’est énorme. Comprendre comment écrire un prompt, sélectionner le bon modèle ou encore s’inspirer de bonnes pratiques permet de réduire drastiquement le nombre d’essais, donc l’impact. Enfin, un troisième levier réside dans le choix du modèle. Plus un modèle est gros, plus il consomme, en particulier lors de son entraînement. Mais dans beaucoup de cas, les gains de qualité sont marginaux par rapport à un modèle plus petit. Pour une recherche technique ou un besoin simple, un small language model peut suffire. 

 

L’entraînement des modèles est-il un problème sous-estimé ? 

 

Oui. L’entraînement est la phase la plus coûteuse. Pour un modèle de 70 milliards de paramètres, ce qui n’est pas le plus gros, l’empreinte est estimée à environ 500 tonnes de CO₂ pour un seul entraînement. C’est l’équivalent de l’empreinte carbone annuelle de 50 Français. Et, évidemment, ces modèles ne sont pas entraînés qu’une seule fois. Ils le sont à de nombreuses reprises pour la R&D, les ajustements, les mises à jour. Au total, les chiffres sont bien supérieurs. C’est un aspect sur lequel les utilisateurs finaux n’ont pas directement prise, mais pousser à utiliser toujours les modèles les plus gros alimente ce cycle d’entraînements démesurés.  

 

Souveraineté et sobriété sont-elles compatibles, notamment avec les data centers qui s’implantent en France ? 

 

Elles peuvent l’être si l’on reprend la main sur le « pourquoi » et le « comment ». Développer des infrastructures locales permet de mieux maîtriser nos données, de choisir comment nous exploitons l’électricité et de rendre visible la matérialité du numérique. Mais, si c’est pour reproduire les travers observés ailleurs, cela n’a pas de sens. Aux États-Unis, les prix de l’électricité ont doublé. En Irlande, la consommation électrique des data centers a fini par dépasser celles des foyers urbains, obligeant à limiter leur expansion. La France est aujourd’hui légèrement excédentaire en électricité, donc pourquoi pas l’investir dans des data center comme celui, en cours d’installation, au port de Marseille. En revanche, si l’on multiplie ces infrastructures sans limites, on s’expose à des effets bien connus : flambée des prix pour les consommateurs, éviction d’autres chantiers de la transition énergétique, dépendance accrue à des usages énergivores. Les gains d’efficacité du cloud des dix dernières années sont déjà consommés ; les marges de progrès sont désormais faibles. Avec l’essor rapide des usages, la demande énergétique de l’IA est appelée à exploser. La bonne question n’est pas « peut-on alimenter Marseille ?”, mais “jusqu’où veut-on aller et pour quels usages ?”.  

 

Quelles solutions pour éviter cette dérive ? 

 

D’abord, instaurer de la transparence obligatoire. Les acteurs doivent publier des métriques minimales et vérifiables sur leur consommation électrique, leur intensité carbone et leur consommation d’eau, à chaque étape : entraînement, déploiement, inférence. Ensuite, poser des limites explicites. Par exemple, définir des quotas d’électricité alloués aux usages IA à l’échelle nationale ou territoriale. Cela éviterait que ces technologies cannibalisent d’autres priorités comme le chauffage, la mobilité ou la production industrielle. Enfin, orienter les aides publiques et les investissements vers les pratiques sobres. Conditionner France 2030 à des critères environnementaux, par exemple, permettrait de ne pas financer des projets « IA sale » mais des initiatives réellement utiles et mesurées. Côté entreprises, il faut aussi accepter qu’un non-projet puisse être une bonne décision. Tout ne mérite pas d’être automatisé par l’IA. 

 

À l’horizon 2030, comment concilier innovation et sobriété ? 

 

D’après une étude du MIT, 95 % des cas d’usage déployés pour des tâches spécifiques à un métier n’arrivent jamais en production. C’était déjà vrai pour d’autres vagues technologiques. Il faut choisir des cas d’usage où la valeur est tangible, les tester en format réduit, arrêter vite ceux qui ne tiennent pas et amplifier seulement les réussites. Cela demande plus de travail en amont, mais c’est la seule manière d’éviter des investissements lourds pour des projets sans lendemain. Certaines entreprises ont déjà compris l’importance de cette rigueur. La Macif, par exemple, a publié un manifeste dans lequel elle précise non seulement ce qu’elle veut faire avec l’IA, mais aussi ce qu’elle refuse de faire, pour des raisons sociales, environnementales ou de ROI. C’est une démarche rare et précieuse. Finalement, le vrai défi est de transformer la frugalité en avantage compétitif, de faire mieux avec moins. Paradoxalement, au lieu de freiner le mouvement, des limites claires peuvent nous rendre plus créatifs, plus inventifs et plus sobres. Ceux qui parviendront à faire mieux avec moins prendront une longueur d’avance. 

 

Quitter la version mobile