Jeder Prompt kostet etwas. Nicht nur Geld. Wenn du ChatGPT bittest, eine E-Mail zu schreiben, verbrauchen Rechenzentren Strom, Kühlsysteme ziehen Wasser, und irgendwo verbrennt ein Kraftwerk Brennstoff, damit die Lichter an bleiben. Die Frage ist, ob diese Kosten zählen.
Laut MIT research lag der Stromverbrauch von Rechenzentren 2022 weltweit bei 460 Terawattstunden – das entspräche dem Verbrauch des elftgrößten Landes und läge irgendwo zwischen Saudi-Arabien und Frankreich. Prognosen zufolge könnten es bis 2026 1.050 Terawattstunden werden; wenn Rechenzentren ein Staat wären, lägen sie damit global auf Platz fünf.
Diese Zahlen wirken abstrakt. Also machen wir sie konkret. Eine ChatGPT-Anfrage verbraucht grob zehnmal so viel Strom wie eine Google-Suche, laut Schätzungen von Goldman Sachs. Fortgeschrittene Reasoning-Modelle wie OpenAIs o3 benötigen 7 bis 40 Wattstunden pro Anfrage – also bis zu 100-mal mehr als einfache Textmodelle. Bilderzeugung braucht 20 bis 40-mal mehr Energie als Text, Videoerzeugung sogar 1.000 bis 3.000-mal mehr.
Training vs. Inferenz: Wohin die Energie wirklich fließt
Es gibt einen verbreiteten Irrtum. Training ist die einmalige Rechnung. Inferenz ist der laufende Abfluss. Die meisten Diskussionen drehen sich ums Training – den dramatischen Energieschub, der nötig ist, um ein Modell zu trainieren –, aber Inferenz dominiert inzwischen den Gesamtverbrauch, weil sie jeden Tag millionenfach passiert.
Das Training von GPT-4 verbrauchte 50 Gigawattstunden Energie – genug, um San Francisco drei Tage lang mit Strom zu versorgen. Das klingt enorm, und das ist es auch. Aber hier ist der Punkt: Inferenz macht inzwischen 80 bis 90 Prozent des KI-Rechenaufwands aus – nicht das Training. Die lange, gleichmäßige Kurve von Millionen Menschen, die das Modell nutzen, überholt diesen einmaligen Peak am Ende.
Das verändert, wie wir über das Problem nachdenken sollten. Ein einmaliger Trainingslauf ist ein fixer Posten, den du über die Lebensdauer des Modells verteilen kannst. Inferenz skaliert dagegen mit Nutzung. Je mehr Menschen KI verwenden, desto mehr Energie wird verbraucht. Es gibt keine Decke.
Wie ein Hacker-News-Nutzer zekrioca es ausdrückte: “Electricity and water are today’s main issues, but there are many indirect others.” Der ökologische Fußabdruck geht weit über das hinaus, was wir leicht messen können: Hardwareproduktion, Abbau seltener Erden, und der „eingebaute“ CO₂-Ausstoß beim Bau von Rechenzentren.
Das Wasser, über das niemand spricht
Rechenzentren werden heiß. Hitze braucht Kühlung. Kühlung braucht oft Wasser.
According to research cited by the Environmental Law Institute verbraucht ein typisches Rechenzentrum täglich 300.000 Gallonen Wasser – ungefähr so viel wie 1.000 Haushalte. Große Anlagen können 5 Millionen Gallonen pro Tag benötigen, also so viel wie eine Stadt mit 50.000 Einwohnern.
Die Auswirkungen pro Anfrage schwanken extrem – je nachdem, wen du fragst. OpenAI-CEO Sam Altman behauptet, eine typische ChatGPT-Anfrage brauche “roughly one fifteenth of a teaspoon” Wasser. Ein Bericht der Washington Post legte nahe, dass das Schreiben einer KI-generierten E-Mail eine ganze Flasche Wasser verbraucht. Researchers at UC Riverside estimated 519 milliliters per 100-word prompt. Die Wahrheit liegt wahrscheinlich irgendwo dazwischen – abhängig von Standort des Rechenzentrums, Kühltechnik und Strommix.
Unstrittig ist die Richtung. By 2028, AI in the US could require as much as 720 billion gallons of water annually allein zum Kühlen von KI-Servern – genug, um den Bedarf von 18,5 Millionen Haushalten im Innenbereich zu decken.
Und hier wird es kompliziert. Verdunstungskühlung braucht weniger Energie, aber mehr Wasser. Luftkühlung braucht mehr Energie, aber weniger Wasser. Wer eine Kennzahl optimiert, verschlechtert die andere. Cornell-Ingenieur Fengqi You sagte es in Undark’s reporting: “How much water you need depends on climate, technology used, and energy mix.”
Die Reaktion der Menschen
Die Leute merken es. Auf Reddit äußerten Nutzer Frust über die Lässigkeit, mit der KI genutzt wird. Einer beobachtete, dass “people are so nonchalant about it and act as if it’s just like Googling something when it actually is horrible for the environment.”
Die Hacker-News-Community tendiert aber zu einer anderen Sicht. Nutzer joegibbs argumentierte: “We should be focusing on generating the energy we use more sustainably, rather than trying to make people spend all day deciding which personal choice to make.” Das trifft einen echten Konflikt: individuelle Verantwortung versus systemische Veränderung.
Ein anderer Nutzer, wmf, formulierte es noch schärfer: “Emissions should be fixed on the production side (decarbonization) not on the demand side (guilt/austerity).”
Beide Perspektiven haben einen wahren Kern. Individuelle Entscheidungen skalieren, wenn Millionen sie treffen. Aber individuelles Schuldgefühl ohne systemische Veränderungen erzeugt vor allem Angst, während das Problem weiter wächst.
Was den Fußabdruck treibt
Wenn man die Stellschrauben versteht, wird es klarer. Nicht jede KI-Nutzung ist gleich.
Die Modellgröße zählt. Größere Modelle benötigen pro Inferenz mehr Rechenleistung. GPT-4 ist deutlich energieintensiver als GPT-3.5, und das wiederum intensiver als ein kleines spezialisiertes Modell. Viele Aufgaben, für die heute Spitzenmodelle genutzt werden, würden mit kleineren Modellen völlig auskommen.
Die Art der Aufgabe zählt. Textgenerierung ist relativ günstig. Bilderzeugung kostet 20 bis 40-mal mehr. Videoerzeugung kostet tausendfach mehr. Ein Marketingteam, das täglich Dutzende KI-Bilder erzeugt, hat einen völlig anderen Fußabdruck als eines, das Textmodelle für E-Mail-Entwürfe nutzt.
Der Anbieter zählt. Rechenzentren unterscheiden sich in ihrer Effizienz (PUE), ihren Stromquellen und ihren Kühlsystemen. Google reports a 33x reduction in energy and 44x reduction in carbon für den mittleren Prompt im Vergleich zu 2024 – ein Hinweis darauf, wie stark sich Effizienz zwischen Anbietern unterscheiden kann.
Der Standort zählt. Research in Nature Sustainability found dass kluge Standortwahl, schnellere Dekarbonisierung der Netze und betriebliche Effizienz die CO₂-Auswirkungen gegenüber Worst-Case-Szenarien um etwa 73 % und die Wasserwirkungen um 86 % senken könnten. Der Mittlere Westen und „windbelt“-Bundesstaaten bieten das beste kombinierte CO₂-und-Wasser-Profil.
Das Effizienzparadox
Hier wird Optimismus kompliziert. KI wird effizienter. Dramatisch effizienter. Das Problem: Effizienzgewinne werden von mehr Nutzung aufgefressen.
Das ist das Jevons-Paradoxon. Effizientere Technik macht Nutzung billiger, also wird sie mehr genutzt – und kann die Einsparungen am Ende komplett neutralisieren. Wie ein Hacker-News-Kommentator, Teever, es trocken zusammenfasste: “Yeah but Jevons paradox.”
Global AI electricity demand is projected to grow from 415 TWh to nearly 1.000 TWh by 2030. Effizienzverbesserungen halten mit der Verbreitung nicht Schritt.
Die Branche weiß das. Forschung läuft weiter: effizientere Modellarchitekturen, bessere Inferenz-Optimierung, bessere Hardware. One study proposed algorithms that could reduce energy costs by 95 % für bestimmte Operationen. Aber außergewöhnliche Behauptungen brauchen außergewöhnliche Belege – wie ein skeptischer Nutzer anmerkte – und der Abstand zwischen Laborergebnissen und produktiven Systemen bleibt groß.
Was du tatsächlich tun kannst
Die ehrliche Antwort ist kompliziert.
Wähle die passende Modellgröße. Nimm das kleinste Modell, das die Aufgabe schafft. Für ein kurzes Brainstorming brauchst du kein GPT-4. Für Massen-Textgenerierung brauchst du keine Spitzenmodelle mit starker Inferenz. Viele Plattformen bieten eine Modellauswahl. Nutze sie.
Schreib bessere Prompts. Ein klarer, konkreter Prompt, der beim ersten Mal sitzt, ist besser als drei vage Prompts, die Iterationen brauchen. Jeder Klick auf „neu generieren“ hat Kosten. Vorlagen und bewährte Strukturen reduzieren Versuch-und-Irrtum.
Hinterfrage die Notwendigkeit. Nicht jede Aufgabe profitiert von KI. Frag dich vor dem Absenden: Brauchst du das wirklich? Würdest du es schneller erledigen, wenn du es einfach selbst machst? Ist der Zusatznutzen den Ressourcenverbrauch wert?
Achte auf Anbieter. KI-Unternehmen unterscheiden sich in ihren Nachhaltigkeitszusagen. Manche veröffentlichen detaillierte Effizienzdaten. Manche betreiben Rechenzentren mit erneuerbaren Energien. Manche tun beides nicht. Diese Informationen beeinflussen Kaufentscheidungen im großen Maßstab.
Aber hier ist die unbequeme Wahrheit: Individuelle Maßnahmen sind sinnvoll – aber nicht ausreichend. Das Problem ist systemisch. About 60 percent of increasing electricity demands from data centers will be met by burning fossil fuels – und das erhöht die globalen CO₂-Emissionen um etwa 220 Millionen Tonnen. Kein noch so achtsamer Umgang mit Prompts kompensiert diese Entwicklung.
Die Verantwortung der Branche
Die Last sollte nicht vollständig auf den Nutzern liegen. Das kann sie nicht.
Große KI-Unternehmen haben Nachhaltigkeitszusagen gemacht: Zusagen zu erneuerbaren Energien, Kompensationsprogramme, Effizienzforschung. Aber Nachhaltigkeitsberichte zeigen trotzdem steigende absolute Emissionen – selbst wenn die Effizienz pro Rechenoperation besser wird. Die Lücke zwischen Zusage und Ergebnis ist groß.
Nine major tech companies showed consistent failures in transparency – kein Unternehmen berichtete KI-spezifische Umweltkennzahlen, obwohl KI als zentraler Treiber steigenden Energieverbrauchs anerkannt wird. Was man nicht misst, kann man nicht steuern. Und die Branche misst nicht.
Nutzer adrianN traf den Kern: “The important part remains internalizing emission costs into the price of electricity.” Wenn Umweltkosten nicht im Preis auftauchen, werden sie ignoriert. Märkte optimieren, was sie messen.
Die Frage, der wir ausweichen
Hier ist, was niemand gern direkt sagt: Wir wissen nicht, ob der Nutzen von KI ihre Umweltkosten überwiegt. Wir können es nicht wissen, weil wir beide Seiten nicht ehrlich beziffert haben.
Der Nutzen ist real. Produktivitätsgewinne. Kreative Möglichkeiten. Analytische Kraft. Schnellere Forschung. Medizin. Wissenschaft. Das zählt.
Die Kosten sind auch real. CO₂-Emissionen. Wasserverbrauch. Rohstoffabbau. Abwärme. Belastung der Netze. Das zählt auch.
Wie ein Hacker-News-Nutzer it_citizen beobachtete: “The jury is still out on the cost benefit of AI on the long run.”
Die Debatte kippt in Extreme. KI wird uns alle retten. KI wird uns alle ruinieren. Keine dieser Positionen hilft. Was hilft, ist ehrliche Bilanzierung – die wir nicht haben – und ein ehrliches Gespräch über Zielkonflikte – das wir vermeiden.
Wo wir damit stehen
Ich komme immer wieder auf etwas zurück, das Nutzer neves auf Hacker News schrieb: “Society must have information to make decisions about what affects all the world.”
Das ist das Kernproblem. Wir haben keine guten Informationen. Energieschätzungen schwanken um Größenordnungen. Wasserberechnungen widersprechen sich. Unternehmen legen keine KI-spezifischen Kennzahlen offen. Forschende arbeiten mit unvollständigen Daten und kommen zu widersprüchlichen Prognosen.
Was wir wissen, deutet darauf hin, dass die Entwicklung bedenklich ist. Der Energieverbrauch von KI wächst schneller als Effizienzgewinne. Wasserstress nimmt in Regionen mit hoher Rechenzentrumskonzentration zu. CO₂-Zusagen werden nicht eingehalten. Und die Nutzung steigt weiter.
Der Weg nach vorn ist nicht offensichtlich. Er wird aus einer Mischung bestehen: Effizienzverbesserungen, Ausbau erneuerbarer Energien, klügere Standortwahl für Rechenzentren, mehr Bewusstsein in der Nutzung – und wahrscheinlich Regulierung. Das bedeutet Zielkonflikte, die wir nicht ehrlich ausgetragen haben.
Ich habe kein sauberes Fazit. Die Checklisten-Mentalität wirkt hier unzureichend – wie Deckstühle zu sortieren, während man darüber streitet, ob das Schiff überhaupt sinkt. Die Zahlen sind real. Die Unsicherheit ist auch real. Die Verantwortung verteilt sich auf Milliarden Nutzer, Dutzende Unternehmen und Regierungen, die noch nicht entschieden haben, wie sie darüber nachdenken wollen.
Was ich weiß: Jeder Prompt kostet etwas. Der Preis kann es wert sein. Vielleicht auch nicht. Aber so zu tun, als gäbe es keine Kosten, ist eine Entscheidung. Und genau diese Entscheidung treffen wir seit zu langer Zeit.
Weiterführendes: AI Costs Explained: API Pricing beleuchtet die finanzielle Seite der KI-Nutzung. AI Data Privacy and Compliance behandelt eine weitere Dimension verantwortungsvoller KI-Einführung.