(Symbolbild)
KI-Rechenzentren und der unsichtbare Wasserverbrauch: Wenn Infrastrukturrisiken monatelang unentdeckt bleiben
Der Betrieb von KI-Rechenzentren erzeugt neben hohem Energiebedarf einen massiven, oft unterschätzten Wasserverbrauch – ein Fall in den USA zeigt, wie lange solche Ressourcenentnahmen regulatorisch unsichtbar bleiben können. Für Unternehmen, die auf KI-Infrastruktur setzen, wächst damit ein Nachhaltigkeits- und Reputationsrisiko, das bisher nur unzureichend in ESG-Strategien und Standortentscheidungen berücksichtigt wird.
Der Fall: 114 Millionen Liter ohne Abrechnung
Ein Rechenzentrum im US-Bundesstaat Georgia verbrauchte nach Berichten von Ars Technica rund 30 Millionen Gallonen Wasser – umgerechnet etwa 114 Millionen Liter – über mehrere Monate, ohne dass die zuständige Wasserversorgung dies zunächst bemerkte oder abrechnete. Der Vorfall wurde erst aufgedeckt, als ein Mitarbeiter der Wasserbehörde bei einer Routineinspektion einen defekten Zähler entdeckte. Die verzögerte Erfassung offenbart systemische Lücken in der Überwachung industrieller Wasserentnahmen, die insbesondere für die schnell expandierende KI-Infrastruktur problematisch sind. (Ars Technica)
Technische Zusammenhänge und Skalierungseffekte
Die hohen Wassermengen resultieren primär aus der Kühlung leistungsintensiver GPU-Cluster für KI-Training und -Inference. Moderne KI-Rechenzentren erreichen Power Densities von 50-100 Kilowatt pro Rack, die herkömmliche Luftkühlung überfordern. Direct Liquid Cooling und Wasserkühltürme werden daher zunehmend zum Standard – mit entsprechendem Verbrauch an Frischwasser. Die International Energy Agency beziffert den globalen Stromverbrauch von Rechenzentren 2024 bereits auf etwa 1,5 Prozent der weltweiten Erzeugung; der Wasser-Footprint bleibt dagegen weitgehend undokumentiert. Diese Datenlücke erschwert es Unternehmen, tatsächliche Umweltauswirkungen ihrer KI-Nutzung zu quantifizieren und gegenüber Stakeholdern zu kommunizizieren.
Regulatorische Blindstellen und wachsende Kontrolle
Der Georgia-Fall illustriert ein strukturelles Defizit: Viele Jurisdiktionen erfassen industrielle Wasserentnahmen unzureichend, insbesondere bei neuen Nutzungstypen wie KI-Rechenzentren. Zwar verschärfen einige Regionen die Auflagen – so untersagen etwa Teile von Arizona und Kalifornien neue Rechenzentren bei Wasserknappheit –, doch die Regulierung hinkt der technologischen Expansion hinterher. Für Unternehmen entsteht daraus eine Planungsunsicherheit: Standorte, die heute verfügbare Wasserressourcen signalisieren, können morgen unter Verschärfungen leiden. Zudem drohen bei nachträglicher Entdeckung hoher Verbräuche regulatorische Eingriffe, Community-Widerstand und Schadensersatzforderungen.
Implikationen für deutsche Unternehmen
Deutschsprachige Unternehmen stehen vor einer doppelten Herausforderung. Zum einen nutzen sie zunehmend Cloud- und KI-Dienste, deren Infrastruktur-Standorte sie nur bedingt steuern können; die Wasserintensität bleibt im Lieferketten-Reporting oft unsichtbar. Zum ander planen etablierte Provider sowie Hyperscaler massive Kapazitätserweiterungen in Europa, darunter auch Regionen mit bereits bestehendem Wasserstress wie Teile Spaniens oder Südfrankreichs. Die EU-Taxonomie und der Corporate Sustainability Reporting Directive (CSRD) verschärfen zwar die Offenlegungspflichten, greifen aber bisher nicht explizit den Wasserverbrauch von KI-Infrastruktur auf.
Unternehmen sollten daher bei der Auswahl von Cloud- und KI-Dienstleistern gezielt nach Wasser-Usage-Effektiveness (WUE) fragen, regionale Wasserrisiken in Due-Diligence-Prozesse integrieren und alternative Kühltechnologien wie Closed-Loop-Systeme oder Luftkühlung mit adiabatischer Unterstützung priorisieren. Der Vorfall in Georgia ist keine Randerscheinung, sondern Indikator für ein systemisches Kontrolldefizit – mit potenziell erheblichen finanziellen und reputativen Folgen für die gesamte KI-Wertschöpfungskette.