Ökobilanz grosser Sprachmodelle: grün oder schädlich?

Wind Turbines On Mountain Horizon With Glowing Digital Network Grid Overlay, Representing Renewable Energy And Smart Technology Integration In Blue Tones At Sunset.

Grosse Sprachmodelle verursachen pro Nutzung vergleichsweise geringe Emissionen, bringen jedoch erhebliche ökologische Belastungen durch den Trainingsaufwand und die Herstellung der benötigten Hardware mit sich. Obwohl jede einzelne Interaktion energieeffizient gestaltet ist, werfen der grossflächige Einsatz und die vorgelagerten Produktionsprozesse bedeutsame Umweltfragen auf. Für eine nachhaltige Entwicklung künstlicher Intelligenz sind umfassende Lebenszyklusanalysen, transparente Berichterstattung sowie ein verstärkter Einsatz erneuerbarer Energiequellen unerlässlich.

Einleitung

In den letzten Jahren haben grosse Sprachmodelle (Large Language Models, LLMs) wie ChatGPT, Copilot, Claude und Gemini eine rasante Verbreitung in zahlreichen Branchen und im Alltag erfahren. Ob in Kundenservice-Chatbots, Tools zur Inhaltserstellung, Programmierassistenten oder Bildungsplattformen – LLMs sind zunehmend fester Bestandteil der digitalen Infrastruktur. Diese breite Integration bringt zweifellos Komfort und Effizienzsteigerungen mit sich, wirft jedoch zugleich wachsende Fragen zu den ökologischen Kosten auf, die mit der Entwicklung und dem Betrieb dieser leistungsstarken KI-Systeme verbunden sind.

Obwohl LLMs aufgrund ihres hohen Rechenbedarfs häufig als besonders kohlenstoffintensiv eingestuft werden, zeichnet aktuelle Forschung ein differenzierteres Bild: Die pro Interaktion verursachten Emissionen sind oft deutlich geringer als befürchtet. Dies macht eine sorgfältige Analyse der tatsächlichen Umweltwirkungen dieser Technologien erforderlich.

CO₂-Emissionen durch Training und Nutzung von LLMs

Die Umweltbilanz grosser Sprachmodelle lässt sich grundsätzlich in zwei Bereiche unterteilen: Emissionen durch das Training und Emissionen durch die Nutzung. Das Training ist ein einmaliger, jedoch äusserst energieintensiver Prozess, der über Wochen oder Monate hinweg immense Rechenleistungen auf spezialisierten Hardware-Systemen in grossflächigen Rechenzentren erfordert.

Beispielsweise verursachte das Training von OpenAIs GPT-3 schätzungsweise einen Stromverbrauch von 1.287 MWh und etwa 552 Tonnen CO₂-Äquivalent (tCO₂e), während für GPT-4 Emissionen von bis zu 21.660 tCO₂e prognostiziert werden. Demgegenüber fallen die Emissionen bei der Nutzung – also bei der Generierung einer Antwort oder eines „Prompts“ – deutlich geringer aus, häufig nur in Gramm CO₂ pro Interaktion gemessen.

Studien von Tomlinson et al. zeigen beispielsweise, dass die Erzeugung eines Bildes – einer der ressourcenintensivsten Anwendungsfälle – lediglich rund 1,9 gCO₂e verursacht. Selbst konservative Schätzungen gehen von etwa 4,3 gCO₂e pro Prompt aus, was auf dem Niveau oder unterhalb vieler alltäglicher digitaler Aktivitäten liegt.

Während die Trainingsphase mit erheblichen Emissionen einhergeht, handelt es sich hierbei um eine einmalige Investition. Die laufenden Emissionen sind hingegen niedrig und steigen nur mit zunehmender Nutzung allmählich an. Diese Unterscheidung ist zentral für die nachhaltige Gestaltung von Infrastruktur und Regulierung im Bereich der Künstlichen Intelligenz.

Vergleich mit Alltagsaktivitäten

Selbst unter Annahme des höheren Werts von 4,3 gCO₂e bleibt der ökologische Fussabdruck eines einzelnen Prompts im Vergleich zu alltäglichen Konsumhandlungen gering. So verursacht der Import von Spargel per Luftfracht aus Peru oder Mexiko etwa 14 kg CO₂e pro Kilogramm. Ein Kilogramm Spargel entspricht etwa sieben Portionen, was pro Portion rund 2 kg CO₂e bedeutet – das entspricht in etwa den Emissionen von 430 Prompts.

Auch im Verkehrsbereich zeigen sich vergleichbare Relationen: Eine Autofahrt von Bern nach Biel (41 km) verursacht etwa 11 kg CO₂e, was rund 2.560 Prompts entspricht. Dieselbe Strecke per Bahn verursacht etwa 0,6 kg CO₂e, was ungefähr 140 Prompts entspricht.

Diskussion

So gering die Emissionen pro Prompt auch erscheinen mögen, insbesondere im Vergleich zu anderen Alltagsaktivitäten, so wichtig ist es, die gesamtgesellschaftlichen Effekte im Blick zu behalten. Denn mit dem rasanten Wachstum des Einsatzes KI-basierter Werkzeuge können auch geringe Einzel-Emissionen kumulativ zu einer bedeutenden Umweltbelastung führen. Weltweit werden täglich Milliarden Prompts generiert – die kumulative Wirkung könnte somit mit der traditioneller Industrien vergleichbar sein.

Darüber hinaus beschränken sich die ökologischen Auswirkungen nicht allein auf den Stromverbrauch. Die Herstellung spezieller KI-Hardware wie Hochleistungs-GPUs erfordert den Abbau seltener Erden, einen hohen Wasserverbrauch sowie komplexe globale Lieferketten. Diese vorgelagerten Umweltwirkungen werden in CO₂-Bilanzen häufig nicht berücksichtigt, stellen jedoch einen wesentlichen Teil des gesamten ökologischen Fussabdrucks dar.

Ein weiterer wesentlicher Aspekt ist die Herkunft der für Training und Betrieb benötigten Energie. Während einige Anbieter auf erneuerbare Energien setzen, sind viele Rechenzentren nach wie vor von fossilen Energieträgern abhängig – insbesondere in Regionen mit unzureichender Infrastruktur für saubere Energie. Dies führt zu erheblichen Unterschieden im tatsächlichen Klimaeinfluss von KI, abhängig von Standort und wirtschaftlichen Rahmenbedingungen.

Zudem wächst die Sorge vor sogenanntem „Greenwashing“ in der KI-Branche. Unternehmen betonen häufig niedrige Betriebsemissionen oder einzelne Nachhaltigkeitsinitiativen, ohne jedoch eine umfassende Transparenz über den gesamten Lebenszyklus der Technologie zu gewährleisten. Für eine wirklich nachhaltige Entwicklung sind daher umfassende Lebenszyklusanalysen und standardisierte Umweltberichterstattung unerlässlich.

Fazit

Zusammenfassend lässt sich feststellen, dass grosse Sprachmodelle (LLMs) zwar oft als klimaschädlich wahrgenommen werden, die tatsächliche Situation jedoch differenzierter ist. Die Emissionen pro Interaktion sind vergleichsweise gering – insbesondere im Vergleich zu alltäglichen Konsumhandlungen wie dem Verzehr importierter Lebensmittel. Gleichzeitig sind der immense Energiebedarf für das Training, die Umweltkosten der Hardwareproduktion sowie die zunehmende Verbreitung von KI nicht zu vernachlässigen.

Ermutigende Ansätze wie die energieeffiziente Architektur von DeepSeek oder der Einsatz emissionsarmer Energiequellen bei BLOOM zeigen, dass sich der ökologische Fussabdruck von LLMs durch bewusste technische und infrastrukturelle Entscheidungen deutlich reduzieren lässt. Dennoch bedarf es mehr als nur schrittweiser Verbesserungen, um eine langfristig nachhaltige Entwicklung von KI-Technologien sicherzustellen.

Zukünftige Forschung sollte sich auf ganzheitliche Lebenszyklusanalysen, standardisierte CO₂-Bilanzierung und energieeffiziente Trainingsmethoden konzentrieren. Ebenso wichtig ist die Berücksichtigung von Verhaltensänderungen und Rebound-Effekten durch Massenanwendung sowie die Entwicklung politischer Rahmenbedingungen, die Transparenz, Verantwortung und ökologische Nachhaltigkeit fördern. Nur durch einen solchen ganzheitlichen, multidimensionalen Ansatz kann Künstliche Intelligenz mit den langfristigen Klimazielen in Einklang gebracht werden und gleichzeitig ein Motor für Innovation bleiben.

 


Literaturverzeichnis

[1]          B. Tomlinson, R. W. Black, D. J. Patterson, and A. W. Torrance, ‘The carbon emissions of writing and illustrating are lower for AI than for humans’, Sci. Rep., vol. 14, no. 1, p. 3732, Feb. 2024, doi: 10.1038/s41598-024-54271-x.

[2]          V. Wong, ‘Gen AI’s Environmental Ledger: A Closer Look at the Carbon Footprint of ChatGPT’, Piktochart. Accessed: Mar. 26, 2025. [Online]. Available: https://piktochart.com/blog/carbon-footprint-of-chatgpt/

[3]          N. Affolter, L. Hänni, and C. Klopfenstein, ‘Know thy impact: Developing a Comprehensive Digital Twin for Estimating Environmental Impact of Individual Behaviour’, Bachelor’s Thesis, Bern University of Applied Sciences, 2024.

[4]          D. Patterson et al., ‘Carbon Emissions and Large Neural Network Training’.

[5]          Y. Yu et al., ‘Revisit the environmental impact of artificial intelligence: the overlooked carbon emission source?’, Front. Environ. Sci. Eng., vol. 18, no. 12, p. 158, Oct. 2024, doi: 10.1007/s11783-024-1918-y.

Creative Commons Licence

AUTHOR: Stefan Grösser

Stefan Grösser ist Professor für Decision Sciences and Policy und leitet die Forschungsgruppe zu Management Science, Innovation and Sustainability an der BFH Technik & Informatik. Er doziert im Master of Engineering (MSE) und arbeitet in mehreren Forschungsprojekten in den Bereichen Simulationsmethodik (System Dynamics, Agent-based Modelling, Machine Learning), Entscheidungsfindung unter Verwendung künstlicher Intelligenz (Decision Making and Management Science), Kreislaufwirtschaft (Circular Economy, Circular Business Models). Seine Industrien sind insbesondere die Solar-, Energie- und Gesundheitsbranche. Des Weiteren mit Beiträgen zu modernen Lerntechnologien.

AUTHOR: Luis Felipe Olivares Pfeifer

Luis Felipe Olivares Pfeifer arbeitet als Praktikant am Departement Technik und Informatik an der BFH.

Create PDF
0 Kommentare

Dein Kommentar

An Diskussion beteiligen?
Hinterlasse uns Deinen Kommentar!

Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert