IA frugale : nos choix sont-ils vraiment vertueux ?

 

Notre chroniqueuse Ana Semedo salue les progrès réalisés en termes de transparence et de mesure des impacts environnementaux des intelligences artificielles. Mais pour s’engager véritablement en faveur de l’IA responsable, elle appelle à la mise en place de méthodes pour passer de la « mesure à la maîtrise ».

 

Nous utilisons ChatGPT pour presque tout, tout en nous inquiétant de son impact. Les mesures rassurent, mais interrogent peu nos arbitrages.
Mal comprise, l’IA durable peut devenir complice du système qu’elle prétend corriger. L’AFNOR SPEC IA frugale, souvent citée, peu appliquée, proposait une autre voie : remettre l’usage au cœur de la décision. Autrement dit, décider mieux, pas seulement mesurer plus !

 

Mistral, un pas pionnier… qui appelle à plus de rigueur

 

Cet été, Mistral a publié l’analyse de cycle de vie (ACV ) de Mistral Large 2 : geste pionnier de transparence à saluer. L’entreprise publie ainsi les résultats suivant :

  • Entraînement : GES 20,4 ktCO₂e ; eau 281 000 m³ ; épuisement des ressources 660 kg Sb-eq.
  • Inférence (Le Chat, ~400 tokens) : 1,14 gCO₂e ; 45 mL ; 0,16 mg Sb-eq.
  • Trois indicateurs structurants : l’impact global d’entraînement, l’impact marginal d’inférence, ratio inférences totales/impact total sur le cycle de vie.

Des questions clés restent en suspens : quel périmètre retenu pour l’ACV ? L’eau mesurée couvre-t-elle aussi la production d’électricité, l’extraction des matériaux, la fin de vie des équipements ? L’énergie primaire et l’énergie finale sont-elles mesurées ? Quels réentrainements sont inclus ?… Et surtout : au-delà des « 400 tokens » avec Le Chat, quels usages sont considérés ? Et par analogie avec les bilans GES : l’ACV couvre-t-elle surtout les émissions directes (scope 1), ou aussi les indirectes (scopes 2 et 3) ? Au fond, pour un LLM, l’essentiel, c’est l’usage.

 

Usages : là où se joue l’empreinte réelle

 

Un modèle performant sur le plan énergétique peut générer une forte empreinte s’il génère du code énergivore qui s’exécutera des milliers de fois, mais aussi s’il produit des réponses approximatives, déclenchant des itérations, ou encore s’il réalise des tâches futiles. Des travaux récents montrent que l’énergie et le temps d’exécution du code généré varient beaucoup selon le modèle et la tâche. Au-delà du modèle, l’empreinte se joue dans le système complet où il s’insère. En la matière, on peut donc dénombrer trois KPI clés : énergie par tâche utile ; volume de tokens I/O et taux d’itérations évitables ; performance du code (latence, mémoire, consommation). Cependant, sans méthode partagée, comparables publiés ni usages mesurés, l’ACV reste une photo utile à la pédagogie, mais insuffisante pour éclairer les décisions.

 

De la mesure à l’outil : et si la boussole n’était pas fiable ?

 

Mistral répond donc à une attente croissante : mesurer. Dans ce contexte, EcoLogits est souvent cité comme référence – un outil open source qui estime l’impact d’une inférence IA. Derrière sa simplicité d’usage, des hypothèses implicites limitent sa portée. Au niveau du matériel déjà : tous les calculs sont rapportés au GPU A100 80 GB, alors qu’on utilise désormais des H100, L40S, TPU v5… aux profils énergétiques différents. De même, le serveur-type AWS p4de.24xlarge est pris par défaut. Selon la taille de modèles ensuite : limitée à moins de 70B, extrapolée au-delà. Sans oublier la question du PUE (Power Usage Effectiveness) : fixé à 1,2, bien qu’il varie entre 1,1 et 1,5. On pourrait également interroger le point du mix énergétique : issu de la base ADEME, sans granularité horaire ni régionale, alors qu’un pays peut osciller du charbon au nucléaire. Enfin, sur le sujet de l’empreinte matérielle : issue de la base Boavizta du A100 80 GB, AWS p4de.24xlarge, extrapolée pour les autres configurations. D’une certaine façon, EcoLogits, pionnier utile, éclaire sans encore permettre de piloter une décision.

 

L’IA responsable n’est pas le numérique responsable

 

Finalement, on célèbre la mesure sans toujours questionner ce qu’elle éclaire. Le culte du chiffre entretient le brouillard sémantique, où l’IA responsable est réduite à une simple déclinaison du numérique responsable – alors qu’elle impose des exigences propres : transparence des données et raisonnements, explicabilité des décisions, équité dans les traitements, gouvernabilité des dérives… Les confondre, c’est masquer des risques spécifiques à l’IA et nourrir une dangereuse passivité. Dans ce contexte, l’un des angles morts majeurs est la perte de maîtrise des chaînes de pensée (CoT). Un « position paper » récent signé par environ 40 chercheurs (dont OpenAI), alerte sur la transparence fragile des chaines de pensée (CoT) de l’IA : coûteuse, contournable, difficile à maintenir. La sûreté coûte et se conçoit dès l’architecture, ce qui suppose : tests adversariaux, modes dégradés, arbitrages encadrés…. C’est un choix stratégique, à concilier avec performance et frugalité.

 

De la posture à la méthode

 

Face à l’abondance de modèles, l’obsolescence accélérée, la banalisation des usages, une simple posture « frugale » ne suffit plus. Il faut une méthode :

  1. Questionner la finalité et les discours,
  2. Mesurer l’utilité effective et la maturité d’adoption,
  3. Évaluer les coûts systémiques,
  4. Installer des garde-fous techniques, humains, juridiques.

Et un cadre :

  1. Structurer une stratégie IA,
  2. Organiser l’apprentissage collectif,
  3. Instaurer des doctrines de choix,
  4. Documenter les arbitrages.

 

Une IA raisonnée allie frugalité pour comprendre, responsabilité pour encadrer, sûreté pour durer. C’est pour répondre à ces enjeux que je développe des cadres d’analyse et d’aide à la décision, testés dans mes missions avec des directions IA, innovation et RSE. Il est donc essentiel de changer d’approche pour passer de la mesure à la maîtrise, car mesurer ne suffit plus : il faut arbitrer, encadrer, gouverner. Relier frugalité, usages et sûreté rend l’IA intelligible, maîtrisable, et durable. Plus qu’un label : nous avons besoin d’un levier stratégique pour dépasser le mythe du score parfait – et reprendre la main sur nos choix technologiques.