Peut-on vraiment évaluer les impacts environnementaux de l’IA ?
Comme souligné dans notre précédent article, tout porte à croire que les impacts environnementaux de l’IA générative sont en pleine augmentation : x7 d’ici 2030, d’après notre dernière étude. Le besoin d’IA frugale semble donc évident. Mais comment évaluer ces impacts au quotidien, étant donné l’opacité des principaux fournisseurs d’IA ?
En effet, même trois ans après le lancement de ChatGPT, les données disponibles sur les véritables impacts environnementaux de l’IA restent tellement flous, et le manque d’un standard universellement imposé est si criant, qu’on ne peut parler que d’évaluation, non pas de véritable mesure.
Sommes-nous bloqués pour autant ? Pas forcément !
Les fournisseurs IA ne disent pas tout
Sans obligation législative, les principaux fournisseurs de modèles d’IA générative ne déclarent que ce qu’ils veulent à propos des impacts de leurs produits.
Le pompon dans ce domaine : OpenAI, créateur de ChatGPT, de loin le service IA générative le plus utilisé au monde aujourd’hui (800 million d’utilisateurs par semaine)… et le plus opaque.
Sam Altman, le CEO d’OpenAI, a déclaré dans un blogpost sur un tout autre sujet en juin 2025 que le coût d’un prompt sur ChatGPT est de 0,34 Wh en énergie et de 0,00032 litres d’eau. Peu de temps après, Google a déclaré – surprise ! – qu’un prompt Gemini typique consommait moins d’énergie (0,24 Wh) et d’eau (0,00026 L) que son principal concurrent.
Contrairement à OpenAI, dont les chiffres sont sortis de tout contexte, Google s’est appuyé sur de la recherche apparemment scientifique, formalisée dans un livre blanc tout à fait sérieux. Mais dans les deux cas, le manque de données clés était criant :
- Quid du nombre de tokens par prompt ? Sans, nous ne savons pas ce qui est mesuré.
- Quid du nombre total de prompts par semaine ? Sans, nous n’avons aucune idée des impacts totaux (mais si on considère les 2.5 milliards de prompts reçus par ChatGPT par jour, ces impacts sont clairement conséquents…).
- Quid des émissions location-based ? Google s’est appuyé sur les émissions market based, qui peuvent être 3-4x moins importantes
- Quid du mix énergétique/intensité carbone des datacentres où l’entraînement et l’inférence ont eu lieu ?
- Quid des impacts de l’entraînement des modèles ?
- Quid des impacts hardware (pour l’entraînement et pour l’utilisateur) ?
Or l’IA frugale ne peut pas être considérée comme telle sans réponses à toutes ces questions, entre autres.

A peu près en même temps, Mistral AI a publié l’analyse de cycle de vie (ACV) la plus poussée à date sur les impacts de la création de contenus par IA générative. Analyse validée par Resilio, Hubblo et l’ADEME, et conforme au référentiel IA Frugale de l’AFNOR.
Contrairement aux déclarations incomplètes des concurrents américains de Mistral AI, cette analyse avait l’avantage de préciser – déjà – combien de tokens étaient analysés, et d’inclure des impacts hardware, en mesurant la consommation de ressources minérales nécessaires pour fabriquer les GPUs et serveurs qui rendent possible les outputs d’IA génératives.
Cependant, le manque de données sur un facteur absolument clé – l’énergie – laisse perplexe. Et si l’analyse est conforme aux 10 critères d’impacts environnementaux listés par l’AFNOR, 6 autres, pourtant clés pour une analyse complète PEF (product environmental footprint) sont ignorés. Dont l’eutrophisation, ou l’utilisation des sols pour n’en citer que deux.
Retour aux 16 critères PEF
Vous l’aurez compris, nous avons atteint les limites de ce que les créateurs de modèles d’IA générative sont prêts à partager. L’avenir de l’IA frugale dépend donc de ce qui suit, à savoir d’initiatives de tierce parties : chercheurs, ONGs et autres associations.

La première “vraie” ACV de l’IA n’était pas celle de Mistral AI, mais bien celle d’un groupe de chercheurs réunis sous la houlette de Sophia Falk de l’Université de Bonn en Allemagne, et de David Ekchajzer, de Hubblo. Avec d’autres – dont l’incontournable Sasha Luccioni de Hugging Face – ils ont récupéré des GPUs A100 de NVIDIA (soit la génération d’avant les H100, les GPUs les plus utilisés pour l’IA aujourd’hui).
Ensuite, ils les ont littéralement broyés, afin d’analyser leurs composants physiques. Pourquoi ? Parce que les fabricants, NVIDIA en tête, ne le font pas. Ils se contentent de sortir des “études” qui ne détaillent que les émissions de gaz à effet de serre de leurs GPUs, soit un seul critère PEF sur 16.
Ces poudres de GPUs ont ensuite été analysées à travers les 16 critères PEF, ce qui a donné les résultats ci-dessus, détaillés dans ce livre blanc, sorti en décembre 2025. Si les résultats ne sont pas toujours faciles à comprendre pour le commun des mortels, ils confirment deux facteurs clés de l’IA frugale :
- Les émissions/l’aspect carbone ne représente qu’une partie des impacts environnementaux de l’IA
- Il devient urgent de pouvoir faire tourner plus de modèles sur moins de hardware.

Constat partagé par l’ACV de l’Association Green IT, cette fois-ci suite à l’analyse de GPUs H100 et projeté sur l’infrastructure IA mondiale, qui a confirmé que 69 % des impacts de l’IA ne sont pas liés aux émissions. A savoir :
- Potentiel de réchauffement global : 31 %
- Epuisement des ressources abiotiques (fossiles, métaux, minéraux) : 21,4 %
- Émissions de particules fines : 18,5 %
- Eutrophisation : 18,3 %.
D’où les trois recommandations pour l’IA frugale qui concluent cette étude :
- Créer un plan “sobriété IA” pour contenir l’offre et maîtriser la demande
- Créer une filière d’excellence (compétences) IA frugale
- Héberger l’IA dans les pays dont l’électricité est la moins impactante (“ce qui reste un “quick-win”, qui ne résout pas le problème de fond” rappellent les auteurs).
Ce qu’on peut savoir
Ceci étant dit, de nombreuses options existent aujourd’hui pour évaluer les impacts de son utilisation d’IA au quotidien.
Tout d’abord, demander à son fournisseur cloud ! Même les plus petits, comme Scaleway ou OVH, fournissent des dashboards pour monitorer les émissions, la consommation d’eau et (idéalement) les impacts hardware de son activité cloud. Et les émissions de son activité IA devraient être détaillées dans ces mêmes dashboards. C’est déjà le cas de Google, par exemple, qui détaille les émissions liées à l’utilisation de chacun de ses produits cloud, dont IA.
Ensuite, à chaque étape de la conception d’un projet IA, différents outils permettent d’évaluer les impacts :

(Slide extrait de la formation “AI Frugale” de GreenIT.fr)
Si tous ces outils sont le fruit d’initiatives non-officielles, ils sont de plus en plus pointus, et utilisés par de grandes entreprises.
Pour prendre l’exemple d’EcoLogits :
- Sa calculette peut estimer quels seront les impacts de tel ou tel modèle IA avant de le choisir (il suffit de multiplier les impacts d’une requête par le nombre de fois qu’elles seront réalisées par jour, et par combien d’utilisateurs, sur la période souhaitée ; cf. Sonia Tabti, ici)
- Son répertoire Python peut s’intégrer dans le code du client, pour donner des estimations en temps réel. C’est ainsi, par exemple, que le client LLM interne du Groupe SNCF affiche les émissions de chaque prompt soumis par ses utilisateurs. Pas mal pour une entreprise à 290,000 salariés !
Compar.IA, l’excellent comparateur de modèles LLM du gouvernement français, s’appuie également sur EcoLogits.
Aucun outil n’est, bien sûr, parfait : EcoLogits n’évalue que la génération de texte, alors que nous savons que la génération d’images est nettement plus consommatrice en ressources.
Il souffre également du fait que les modèles les plus utilisés – les derniers GPT et Gemini – sont fermés, et doit donc ‘deviner’ leurs impacts en les comparant avec des modèles open source de taille équivalente. Idem pour AI Energy Score, entre autres (même si ce dernier vient d’ajouter un ranking de modèles à raisonnement fort utile…)
Il s’agit donc d’utiliser un mélange d’outils en fonction de ses besoins. Citons par exemple SCI for AI, qui applique le standard Software Carbon Intensity – agréé par ISO – du Green Software Foundation aux modèles de LLM.
Conclusion : Évaluer les impacts de l’IA, c’est possible !
Quelle que soit la solution, on ne peut plus dire “on ne peut pas savoir” lorsqu’ il s’agit des impacts de l’IA.
Certes, la mesure précise, ainsi qu’un standard imposé internationalement, manquent encore cruellement en ce qui concerne l’IA frugale. Mais on peut d’ores et déjà :
- Savoir à l’avance si tel ou tel outil IA risque de mettre en péril les objectifs de réduction d’émissions (IT) de son entreprise
- Établir des limites environnementales à ne pas dépasser par ses systèmes IA
- Utiliser les outils d’évaluation pour :
- rendre les utilisateurs plus conscients des impacts de l’IA
- inclure dans sa politique d’achats IT le niveau de frugalité de telle ou telle solution IA (types de projet déjà en cours chez Orange, ou au Groupe La Poste, par exemple).
Ensemble, nous pouvons y arriver !
Se former à l’IA frugale pour agir vite et efficacement
Pour connaître la suite, vous pouvez :
- Lire le prochain article de cette série de 4 articles
- Vous inscrire à une prochaine édition de la formation “IA Frugale”. A la clé : tout ce qu’il faut pour amener votre entreprise vers une IA moins impactante…