Die Public Cloud – eigentlich nicht mehr als der Server eines Unternehmens in einem Rechenzentrum – hat enorme Auswirkungen auf die Umwelt. Solche Rechenzentren sind heute für immerhin zwei Prozent der gesamten weltweiten Treibhausgasemissionen (kurz: THG) verantwortlich. Diese Zahl wird in den nächsten Jahren aufgrund der fast exponentiell wachsenden Nachfrage nach Public Cloud-Diensten weiter steigen.
Ziel dieses Beitrags ist die Vorstellung eines Ansatzes und seiner Umsetzung, wie Unternehmen ihre Cloud-Emissionen durch Richtlinien in der Cloud-Umgebung zentral steuern können.
Wie lassen sich die Treibhausgasemissionen der Public Cloud reduzieren?
Aus Sicht der Cloud-Anbieter lassen sich die Emissionen durch effiziente Anlagen oder auch eine bessere Serverauslastung verringern. Die Energieeffizienz der Rechenzentren hängt dabei sowohl von der Art der genutzten Energie als auch vom Standort ab. Der Einsatz erneuerbarer Energien oder der Bau eines Rechenzentrums in einer eher kühlen Region verringert die Emissionen. Letzteres wird durch die Nutzung von Virtualisierungstechniken beeinflusst. Beide Faktoren sind stark von der Gegend abhängig, in der die Rechenzentren stehen.
Die drei bekanntesten Cloud-Anbieter – Amazon Web Services (AWS), Google Cloud Platform (GCP) und Microsoft Azure – arbeiten aktiv an Verbesserungen. GCP hat bereits CO2-Neutralität sowie den 100-prozentigen Einsatz erneuerbarer Energien erreicht, AWS und Azure wollen das 2025 schaffen. Neue Rechenzentren werden vorzugsweise an kalten Standorten gebaut – einer der Gründe, warum in Finnland zehn Rechenzentren von vier verschiedenen Anbietern stehen. Darüber hinaus gibt es Studien zur Verringerung der CO2-Emissionen durch den Einsatz von Künstlicher Intelligenz zur Verbesserung der Kühlung oder eine Positionierung des Rechenzentrums unter Wasser.
In jedem Fall steigen die Ausgaben für die Public Cloud, im Vergleich zu 2021 sogar um bis zu 46 Prozent bis 2023. Das führt zum Bau zusätzlicher Rechenzentren, was den Gesamteffekt der bisherigen Verbesserungen auf die bestehenden Rechenzentren verringert. Daher stehen nun die Public-Cloud-Kunden in der Verantwortung, ihr Verhalten möglichst CO2-effizient zu gestalten. Das Gute: Viele der Maßnahmen zur Emissionsverringerung werden auch zur Kostensenkung eingesetzt – wie zum Beispiel das Abschalten ungenutzter Ressourcen oder die Anpassung von Recheninstanzen. Das bedeutet, dass die Einführung einer FinOps-Praxis zur Kostenreduzierung fast unmittelbar zu einer Verringerung des CO2-Fußabdrucks der Cloud führt.
Konzentration auf den größten Verbraucher: das Computing
Klassische Rechenressourcen wie EC2 (Elastic Compute Cloud) von AWS, Virtual Machines von Azure oder Compute Engine von GCP sind nicht nur die ältesten, sondern auch die bekanntesten Public Cloud-Dienste und damit die Basis für anspruchsvolle Architekturen. Diese Ressourcen können in einer bestimmten Region der Welt platziert werden. In der Regel entscheiden Latenz, Preis oder Compliance-Anforderungen über die ausgewählte Region. Die Planung kann auch auf der Grundlage der gesamten CO2-Emissionen einer bestimmten Region erfolgen.
GCP ist ein Vorreiter auf diesem Gebiet und stellt seinen Kunden die erforderlichen Daten für eine fundierte Entscheidung zur CO2-armen Platzierung ihrer Rechenzentren zur Verfügung. Der Anbieter teilt Informationen zur CO2-Intensität des Netzes in jeder Region und schafft damit die Grundlage zur Berechnung des durchschnittlichen Prozentsatzes der CO2-freien Energie an diesem Standort. Im Ergebnis können die Kunden „Low CO2″-Regionen bevorzugt auswählen.
Diese Metrik wird bei der täglichen Arbeit mit GCP Compute angezeigt, z.B. bei der Erstellung einer neuen Compute Engine-Instanz:
Niedrige CO2-Metrik beim Erstellen einer neuen Instanz in GCP
Um solche CO2-armen Instanzen im gesamten Unternehmen durchzusetzen, reicht es zumeist nicht aus, dies als Anforderung oder Best Practice aufzunehmen. Außerdem: Was geschieht mit jenen Instanzen, die bereits in Betrieb sind?
Wie kann man die Erstellung neuer Instanzen verhindern?
Um CO2-arme Regionen in der gesamten Organisation für alle zukünftigen Compute Engine-Instanzen durchzusetzen, können spezielle ‚GCP Organization Policies‘ verwendet werden. Im Allgemeinen unterstützen diese Policies eine zentrale Kontrolle darüber, wie die Ressourcen einer Organisation genutzt werden.
Um die Nutzung CO2-armer Regionen zu erzwingen, lässt sich die Richtlinie „Resource Location Restriction“ erstellen, um erlaubte Regionen auf ebendiese Standorte zu beschränken.
Standortanzahl für GCP-Ressource beschränken. Quelle: Reply
Durchsetzung CO2-armer Standorte mit Organisationspolitik in GCP
So werden beim Einrichten neuer Instanzen in der Konsole nur CO2-arme Regionen angezeigt.
Erstellen einer neuen Instanz mit einer CO2-armen Organisationspolitik
Dies gilt auch für neue Instanzen, die von ‚Infrastructure as Code‘ erstellt werden – eine Instanz in einer ‚verbotenen‘ Region führt unmittelbar zu einer Fehler-Anzeige.
Fehlgeschlagene Provisionierung in einer Region mit hohem CO2 Ausstoß. Quelle: Reply
So lassen sich bestehende Instanzen stoppen
Für die Anwendung der Auswahl CO2-armer Regionen auf laufende Instanzen oder auch die Benachrichtigung der Eigentümer darüber, dass sie ihre Instanz-Typen entsprechend anpassen müssen, kann das Open-Source-Tool ‚Cloud Custodian‘ verwendet werden.
Alle laufenden Instanzen können mit einer zentralen Richtlinie angesprochen und sofort als eine einzige Lösung gelöscht werden. Die folgende Beispiel-Richtlinie zeigt, wie Instanzen in CO2-intensiven Regionen beenden werden können, wenn sie nicht ein entsprechendes Tag tragen.
Als Alternative zu dem eher drastischen Ansatz, Instanzen sofort zu löschen, können die Instanzen mit „mark-for-op“ für eine weitere Operation markiert werden. Cloud Custodian fügt ein zusätzliches Tag hinzu, um die Instanz bei einem zukünftigen Lauf zu erkennen. Dadurch kann das FinOps-Team den Eigentümer der Instanz benachrichtigen und ihn auffordern, die Arbeitslast in eine CO2-arme Region zu migrieren, bevor die Instanz manuell gelöscht wird.
Richtlinie, die dem Besitzer eine Warnung schickt. Bildquelle: Reply
Schlussfolgerung
Derzeit ist GCP der einzige Public-Cloud-Anbieter, der eine solche Transparenz bezüglich der CO2-Emissionen in den einzelnen Regionen bietet. Die Nutzung dieser emissionsarmen Regionen kann über GCP-Organisationsrichtlinien für neue Instanzen oder Policy-Tools von Drittanbietern wie Cloud Custodian für laufende Instanzen durchgesetzt werden. Bei näherer Betrachtung fällt auf, dass nur wenige Regionen in Europa sowie Nord- und Südamerika – abhängig vom jeweiligen Energiemix – wirklich CO2-arm sind und bereits von der GCP Compute Engine genutzt werden. Dies zeigt: Es ist nicht ratsam, innerhalb einer Organisation CO2-arme Regionen für Workloads in bestimmten Gebieten oder für Workloads mit besonderen Anforderungen an Latenz oder Preisgestaltung zu erzwingen. Für eine nachhaltige Zukunft bedeutet dies, dass die Verbraucher neben Latenz, Preis und Compliance auch die CO2-Emissionen der Cloud berücksichtigen müssen, wenn sie eine Instanz planen.
Autoren: Max Körbächer, Partner Liquid Reply, Vanessa Kantner, Mitglied der Reply Practice Green Technology , Florian Stoeber von Liquid Reply