Bilan écologique des grands modèles de langage : écologiques ou polluants ?

Wind Turbines On Mountain Horizon With Glowing Digital Network Grid Overlay, Representing Renewable Energy And Smart Technology Integration In Blue Tones At Sunset.

Les grands modèles de langage génèrent peu d’émissions par utilisation individuelle, mais engendrent des coûts environnementaux importants liés à leur phase d’entraînement et à la production du matériel informatique requis. Bien que chaque interaction soit relativement économe en énergie, le déploiement à grande échelle ainsi que les impacts en amont suscitent des inquiétudes environnementales croissantes. Pour garantir une intelligence artificielle durable, il est indispensable de réaliser des évaluations complètes du cycle de vie, d’assurer une transparence accrue et de favoriser davantage le recours à des sources d’énergie décarbonées.

Introduction

Ces dernières années, les grands modèles de langage (LLM) tels que ChatGPT, Copilot, Claude ou Gemini ont connu une adoption rapide et massive dans de nombreux secteurs et usages quotidiens. Des chatbots de service client aux outils de génération de contenu, en passant par les assistants à la programmation et les plateformes éducatives, les LLM s’imposent progressivement comme des composantes clés de notre infrastructure numérique. Cette intégration généralisée a apporté un confort et une productivité sans précédent, tout en suscitant des interrogations croissantes quant aux coûts environnementaux liés au développement et à l’exploitation de ces systèmes d’IA puissants. Si les LLM sont souvent perçus comme énergivores en raison de leur puissance de calcul, des études récentes offrent une perspective plus nuancée : les émissions par interaction seraient probablement bien inférieures à ce que l’on imagine, ce qui nécessite une analyse approfondie des véritables sources d’impact environnemental.

Émissions de CO₂ liées à l’entraînement et à l’usage des LLM

L’empreinte environnementale des LLM se divise globalement en deux catégories : les émissions générées lors de l’entraînement, et celles liées à l’usage. L’entraînement, processus ponctuel mais extrêmement énergivore, mobilise des calculs intensifs sur plusieurs semaines ou mois, nécessitant du matériel hautement performant au sein de centres de données à grande échelle. Par exemple, l’entraînement de GPT-3 par OpenAI aurait consommé environ 1 287 MWh d’électricité, générant près de 552 tonnes équivalent CO₂ (tCO₂e), tandis que les projections pour GPT-4 évoquent jusqu’à 21 660 tCO₂e.

À l’inverse, les émissions associées à l’usage — c’est-à-dire à la génération d’une réponse — sont beaucoup plus faibles, souvent mesurées en grammes de CO₂ par requête. Une étude de Tomlinson et al. rapporte des émissions remarquablement basses, de l’ordre de 1,9 gCO₂e pour la génération d’une image, l’un des cas d’usage les plus gourmands en ressources. Même les estimations les plus prudentes placent ces émissions autour de 4,3 gCO₂e par interaction, ce qui les situe au niveau, voire en dessous, de nombreuses activités numériques courantes. Si les émissions liées à l’entraînement sont élevées mais concentrées dans le temps, celles associées à l’usage restent faibles et augmentent progressivement avec l’échelle. Cette distinction est fondamentale pour concevoir des infrastructures durables et orienter les politiques de déploiement de l’IA.

Comparaison avec des produits et activités tangibles

Même en adoptant l’estimation haute de 4,3 gCO₂e, l’impact environnemental d’une requête reste minime face à de nombreuses activités de consommation courantes. Par exemple, l’importation d’asperges par avion depuis le Pérou ou le Mexique génère environ 14 kgCO₂e par kilogramme. Sachant qu’un kilogramme d’asperges représente environ sept portions, chaque portion équivaut à environ 2 kgCO₂e — soit l’équivalent de 430 requêtes. De même, un trajet en voiture entre Berne et Bienne (41 km) émet environ 11 kgCO₂e, soit près de 2 560 requêtes, tandis que le même trajet en train ne produit qu’environ 0,6 kgCO₂e, équivalent à 140 requêtes.

Discussion

Si les émissions par requête paraissent faibles, surtout en comparaison avec les activités quotidiennes, une évaluation globale doit tenir compte des effets systémiques à grande échelle. La croissance rapide des outils basés sur l’IA signifie que même des émissions modestes par interaction peuvent s’accumuler en une empreinte environnementale significative. Avec des milliards de requêtes générées chaque jour dans le monde, l’impact cumulé pourrait rivaliser avec celui d’industries traditionnelles.

Au-delà de la consommation énergétique, la fabrication du matériel informatique spécialisé, comme les GPU haute performance, nécessite l’extraction de terres rares, une forte consommation d’eau et des chaînes d’approvisionnement complexes. Ces impacts en amont sont souvent sous-estimés dans les bilans carbone, alors qu’ils constituent une part importante de l’empreinte écologique des technologies d’IA.

Un autre facteur crucial est la provenance de l’énergie utilisée pour l’entraînement et l’exploitation. Si certains fournisseurs s’appuient sur des énergies renouvelables, beaucoup de centres de données restent dépendants des combustibles fossiles, notamment dans les régions aux infrastructures énergétiques bas carbone limitées. Cette disparité génère des écarts significatifs dans l’empreinte environnementale réelle selon le contexte géographique et économique.

Enfin, le phénomène de greenwashing inquiète dans le secteur. Des entreprises mettent en avant des émissions opérationnelles réduites ou des initiatives ponctuelles, sans transparence globale sur le cycle de vie. Pour garantir une IA durable, il est indispensable d’instaurer des évaluations complètes du cycle de vie et des normes de reporting environnemental.

Conclusion

En conclusion, si l’IA — et en particulier les grands modèles de langage — est souvent perçue comme néfaste pour l’environnement, une analyse approfondie révèle une réalité plus complexe. Les émissions par interaction sont relativement faibles, notamment comparées à d’autres activités de consommation comme l’alimentation. Toutefois, les besoins énergétiques élevés liés à l’entraînement, les coûts environnementaux de fabrication des matériels et l’adoption massive de ces technologies soulèvent des préoccupations légitimes.

Des avancées prometteuses, telles que l’architecture éco-efficace de DeepSeek ou l’utilisation d’énergies bas carbone par le projet BLOOM, démontrent qu’il est possible de réduire significativement l’empreinte environnementale des LLM grâce à des choix technologiques et d’infrastructure éclairés. Cependant, garantir un avenir durable à l’IA requiert bien plus que des améliorations incrémentales.

Les recherches futures devront intégrer des évaluations complètes du cycle de vie, des méthodologies standardisées de comptabilité carbone, et des techniques d’entraînement à haute efficacité énergétique. Elles devront aussi considérer les changements comportementaux, les effets rebond liés à une adoption massive, ainsi que l’élaboration de cadres réglementaires promouvant transparence, responsabilité et écoconception. Seule une approche holistique et multidimensionnelle permettra d’aligner l’IA sur les objectifs climatiques à long terme tout en stimulant l’innovation.

 

Bibliographie

[1] B. Tomlinson, R. W. Black, D. J. Patterson, and A. W. Torrance, ‘The carbon emissions of writing and illustrating are lower for AI than for humans’, Sci. Rep., vol. 14, no. 1, p. 3732, Feb. 2024, doi: 10.1038/s41598-024-54271-x.

[2] V. Wong, ‘Gen AI’s Environmental Ledger: A Closer Look at the Carbon Footprint of ChatGPT’, Piktochart. Accessed: Mar. 26, 2025. [Online]. Available: https://piktochart.com/blog/carbon-footprint-of-chatgpt/

[3] N. Affolter, L. Hänni, and C. Klopfenstein, ‘Know thy impact: Developing a Comprehensive Digital Twin for Estimating Environmental Impact of Individual Behaviour’, Bachelor’s Thesis, Bern University of Applied Sciences, 2024.

[4] D. Patterson et al., ‘Carbon Emissions and Large Neural Network Training’.

[5] Y. Yu et al., ‘Revisit the environmental impact of artificial intelligence: the overlooked carbon emission source?’, Front. Environ. Sci. Eng., vol. 18, no. 12, p. 158, Oct. 2024, doi: 10.1007/s11783-024-1918-y.

 

Creative Commons Licence

AUTHOR: Stefan Grösser

Stefan Grösser est professeur en sciences décisionnelles et politiques et dirige le groupe de recherche en sciences de gestion, innovation et durabilité à la BFH Technique & Informatique. Il enseigne dans le cadre du Master of Engineering (MSE) et travaille sur plusieurs projets de recherche dans les domaines de la méthodologie de simulation (dynamique des systèmes, modélisation basée sur les agents, apprentissage automatique), de la prise de décision à l'aide de l'intelligence artificielle (prise de décision et sciences de gestion) et de l'économie circulaire (économie circulaire, modèles commerciaux circulaires). Il s'intéresse en particulier aux secteurs de l'énergie solaire, de l'énergie et de la santé. Il contribue également à des publications sur les technologies d'apprentissage modernes.

AUTHOR: Luis Felipe Olivares Pfeifer

Create PDF
0 réponses

Laisser un commentaire

Rejoindre la discussion?
N’hésitez pas à contribuer !

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *