Energieeffizienz in Cloud-Rechenzentren

Grüne Rechenzentren: Strategien zur Energieoptimierung

Nachhaltigkeit Rechenzentrum

Der Energiebedarf von Rechenzentren wächst stetig, was nicht nur die Betriebskosten in die Höhe treibt, sondern auch den ökologischen Fußabdruck vergrößert. Um diesem Trend entgegenzuwirken, setzen Betreiber weltweit auf neue Kühltechnologien und energieeffiziente Hardware.

Dieser Artikel beleuchtet die neuesten Entwicklungen und wie sie zur Reduzierung des Stromverbrauchs beitragen können.

Anzeige

Der größte Internet-Knoten der Welt, der DECIX, ist in Frankfurt. Rundherum haben sich so viele Rechenzentren angesiedelt, dass sie 25 Prozent des gesamten Stroms der Stadt verbrauchen. Insgesamt machen Rechenzentren ca. 0,6 Prozent des gesamten Energieverbrauchs in Deutschland aus ‒ mit steigender Tendenz. Für Cloud-Anbieter ist es daher wichtig, den Energieverbrauch auf ein Minimum zu senken ‒ nicht nur wegen der Stromkosten, sondern auch, um die eigenen Klimaneutralitätsziele zu erreichen. 

Dies spielt auch gesamtwirtschaftlich eine große Rolle: Deswegen hat der Gesetzgeber das Energieeffizienzgesetz (EnEfG) verabschiedet, das für Betreiber enge Vorgaben ab 2027 macht und diese für die Zeit nach 2030 nochmals verschärft. 

Ansatzpunkte zum Energiesparen gibt es mehrere: Zum einen der Stromverbrauch der eingesetzten IT-Komponenten, zum anderen vor allem die Kühlsysteme und -technologien. Als dritte Komponente können weitere KI- und Datenanalyse-Techniken mit Blick auf kommende Entwicklungen (Wetter, Zeitfaktoren, vorhersehbare Ereignisse) den Energieverbrauch optimieren. 

Innovative Kühlsysteme: Mehr als nur Klimaanlagen

Beim Thema Kühlung gibt es verschiedene Ansätze. Verschwenderisch ist es, eine Klimaanlage zu installieren, die Serverräume stumpf auf eine vorgegebene Temperatur zu bringen und die warme Luft einfach in die Umgebung zu blasen. Besser: Das dritte Rechenzentrum von Alibaba Cloud in Frankfurt am Main verfügt über ein Free-Cooling-System, bei dem die natürlich kühle Umgebungsluft anstelle von künstlicher Kühlung verwendet wird.

Andere Rechenzentren nutzen die Abwärme der Server über eine Wärmepumpe, um damit umliegende Gebäude oder Häuser zu heizen. Hierbei gibt es aber durchaus technische Hürden zu nehmen, weil die Abluftwärme eventuell ein zu geringes Temperaturniveau aufweist, um vernünftig genutzt werden zu können. 

Serverraumtemperatur intelligent anheben

Optimierungspotenziale bietet auch die maximale Raumtemperatur. Je höher sie liegt, umso weniger muss gekühlt werden. Der begrenzende Faktor beim Kühlen eines Rechenzentrums sind die Geräte, die die geringste maximale Temperatur vorgeben, bei der sie noch einwandfrei funktionieren. Gibt es mehrere Server, die nah beieinander viel Hitze erzeugen, kann es nötig sein, die Kühlung hochzufahren, um die lokale Raumtemperatur unter dem Grenzwert zu halten. Durch geschickte Verteilung hitzeerzeugender Hardware über das Rechenzentrum (oder über mehrere Räume) lässt sich die Raumtemperatur moderat anheben und damit die nötige Kühlleistung senken.

Ebenfalls möglich und vielfach schon genutzt ist kühlende Luft von außen. Aus diesem Grund stehen zahlreiche Rechenzentren in Skandinavien, weil dort die Umgebung über viele Monate im Jahr deutlich kühler als in Zentral- oder Südeuropa ist und sich sowohl Luft als auch Wasser zum Kühlen einsetzen lassen. 

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.

Flüssig: High-Tech-Kühlmethoden 

Luft ist als Kühlmittel nur mäßig effizient. Die Kompression und große Luftmengenumwälzung erfordern selbst viel Energie. Wesentlich besser arbeiten flüssige Kühlmittel. Alibaba Cloud nutzt in seinen Rechenzentren beispielsweise seine „Soaking-Server“-Technologie, bei der die Server und andere IT-Hardware komplett in Kühlmittel getaucht und so betrieben werden. Der Wirkungsgrad der flüssigen Kühlung ist wesentlich höher als in traditionellen Klimaanlagen und Lüftersystemen und kann den Energieverbrauch um 70 Prozent senken. 

Die Rechenzentren erreichen mit diesen Kühlungstechniken einen Power Usage Effectiveness-Faktor (PUE-Faktor) von 1,09. Das heißt, von 109 Kilowattstunden werden 100 von der IT-Hardware verbraucht und nur 9 von der restlichen Technik im Rechenzentrum (etwa für Kühlung, Licht, Heizung, Sicherheitssysteme). Das markiert einen wichtigen technologischen Fortschritt. Bisher galten Rechenzentren mit einem PUE von 1,2 schon als sehr effizient. 

Darüber hinaus können Unternehmen die Technologie von Lüftungsgeräten (AHU) und Luftkühlern nutzen, um den WUE-Wert (Water Usage Effectiveness) des Rechenzentrums auf bis zu 0,45 l/kWh zu senken. Gegenüber herkömmlichen Kühlturmsystemen lassen sich so mehr als 80 Prozent einsparen.

Künstliche Intelligenz: Neue Wege zur Energieeffizienz

Mit innovativen KI- und Datenanalysetechnologien lässt sich der CO₂-Fußabdruck von Rechenzentren auf einen Blick prognostizieren, kontrollieren und verwalten. Sie können sehr schnell Anomalien erkennen und entsprechend automatisiert reagieren, um sie entweder zu melden oder ‒ falls möglich ‒ direkt zu beheben. 

Mit einem erweiterten SaaS-Tool wie dem Energy Expert von Alibaba Cloud, das Echtzeitdaten verfolgt und aufbereitet, können Rechenzentrumsbetreiber und Unternehmen CO₂-Emissionen planen, Ziele setzen und die Umweltauswirkungen begrenzen. Energy Expert hilft direkt dabei, mit Prüfinstituten wie dem TÜV Rheinland Nachhaltigkeitszertifizierungen zu erlangen.  

Künstliche Intelligenz ist außerdem hilfreich, um die zukünftige Energielast eines Rechenzentrums zu prognostizieren, da diese je nach Uhrzeit, Wetter und besonderen (Shopping-)Ereignissen stark schwanken kann. Da Server an der Belastungsgrenze deutlich mehr Energie verbrauchen, können geschickte Prognosen und automatisierte Lastverteilung den Gesamtstromverbrauch senken. 

Ein weiterer Faktor sind schwankende Energieerträge aus erneuerbaren Energien lokaler Energieerzeuger. Hier können KI-basierte Algorithmen wie Energy Expert die Lastverteilung so optimieren, dass ein Maximum an regenerativer Energie genutzt wird.

Grüne IT: Wie Cloudmigration den CO₂-Fußabdruck verringert

Letztlich ist also schon allein die Migration der eigenen IT-Infrastruktur in die Cloud der erste und wichtige Schritt zu nachhaltiger Dekarbonisierung: Kleinere On-Premise-Rechenzentren haben häufig einen schlechten PUE-Wert von 1,5 oder 2. Moderne Cloud-Zentren sind wie beschrieben deutlich energiesparender und erreichen PUE-Werte von 1,2 oder 1,1. 

Cloud-native Infrastrukturen erleichtern darüber hinaus eine automatische Lastverteilung und Optimierung und können KI-Anwendungen automatisch auf Systeme verschieben, die über entsprechende Hardware verfügen. Das heißt, die Migration in die Cloud führt nicht nur zu skalierbaren und flexiblen Infrastrukturen, über die sich Kosteneinsparungen erzielen lassen, sie verkleinert auch den CO₂-Fußabdruck, weil sie gezielt die Energieeffizienz optimiert und nachhaltige Energiequellen priorisiert. 

Fazit

Professionelle Rechenzentren nutzen vielfältige Möglichkeiten, um den Stromverbrauch zu senken, entstandene Hitze für andere Zwecke zu nutzen und nachhaltige Energiequellen optimal einzubinden. 

Einen deutlichen Sprung in der Energieeffizienz machen dabei flüssigkeitsgekühlte Racks und Server sowie der Einsatz stromsparender Server-Prozessoren aus. Allein die Migration des eigenen Rechenzentrums in die Cloud reduziert den CO₂-Fußabdruck und bringt uns der Dekarbonisierung einen großen Schritt näher.

William Xiong, Vice President of Alibaba Cloud Intelligence and General Manager for International Industry Solutions

Anzeige

Artikel zu diesem Thema

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.