Der Energieverbrauch eines Rechenzentrums ist einer der größten Posten in der Betriebskostenkalkulation. Das Einsparpotenzial ist jedoch nicht nur in großen Datacentern gegeben, sondern auch in kleinen und mittleren Umgebungen. Oft genug wird nur nicht genau genug darauf geachtet.
Leserfrage: Inwieweit können kleine und mittlere Rechenzentren Energie und Strom einsparen? Wie sollten die IT-Abteilungen die Themen Nachhaltigkeit und Sparsamkeit angehen? Welche Möglichkeiten bieten sich, um den energieverbrauch zu reduzieren?
Antwort Doc Storage:
Die gute Nachricht zuerst: Selbst in kleineren und kleinen Rechenzentrum lassen sich viele Euros durch intelligente Auswahl von Geräten und andere Maßnahmen einsparen.
Obwohl immer mehr Rechenleistung auf immer kleinerem Platz verfügbar ist, können auch Hochleistungsumgebungen das Budget aus vielerlei Gründen stark belasten. Vor allem steigender Strombedarf, immer weiter steigende Energiekosten und auch die zunehmende, abzuführende Hitze machen sich hier bemerkbar.
Jeder RZ-Betreiber weiß heute, wie kritisch all diese Faktoren geworden sind. Energie soll, nein, muss gespart werden, während gleichzeitig immer weiter zunehmende Lasten zu unterstützen sind. Kleinere Rechenzentren können durch weitsichtige Entscheidungen in Bezug auf Verwaltung, Hardware, Stromversorgung und Kühlinfrastruktur ihre Kosten erheblich reduzieren. So können die Einsparungen durch einen energieeffizienten Server annähernd die Kosten eines Rechners selbst amortisieren. Kombiniert man diese Strategie mit ebenfalls energieeffizienteren Strom- und Kühlsystemen, sparen schon mittelgroße Rechenzentren mit um die 1.500 Servern Millionen und verbessern gleichzeitig die CO2-Bilanz des Unternehmens.
Infrastruktur oft nicht ausgelastet
Die erste Option klingt simpel: nicht benötigte Ausrüstung abschalten. Ein Großteil der DV-Ausrüstung wird im Verhältnis zu ihrem Stromverbrauch nur sehr wenig genutzt. So sind Server durchschnittlich maximal zu 15 Prozent, PCs zu maximal 20 Prozent, direkt angeschlossene Speicher zu maximal 40 Prozent und Netzwerkspeicher bis zu 80 Prozent ausgelastet. Wird eines dieser Geräte inaktiv, verbraucht es immer noch einen bemerkenswerten Anteil der Energie, die es bei maximaler Auslastung benötigt.
Ein durchschnittlicher Server verbraucht bis zu 40 Prozent dieser maximalen Aufnahme, auch wenn er überhaupt keine Aufgaben verrichtet. Um diesen Energiefressern das Handwerk zu legen, gilt es, nicht ausgelastete Geräte zu identifizieren und auszuschalten. Wenn auf einem Rechner eine nur wenig genutzte Anwendung läuft, gibt es mit Sicherheit kostengünstigere Möglichkeiten, diese auf anderen Servern weiter zu betreiben. Oder man macht sich etwas mehr Arbeit, sucht und findet »Bloatware« (ineffektive Software, die CPUs unnötig belastet). CPU-schonende Anwendungen tragen wesentlich zur Reduzierung der entsprechenden CPU-Zyklen bei, wodurch sich auf einem Rechner bei gleicher Leistungsaufnahme eine wesentlich bessere Verarbeitungsleistung erzielen lässt.
Mehr Leistung auf geringerem Raum: Konsolidierung der Hardware. Auf Server-Ebene können Blade-Server dazu beitragen, diese Konsolidierung voranzutreiben. Sie bieten wesentlich höhere Rechenleistungen mit höherer Dichte im Verhältnis zum verbrauchten Strom. Alle Blades teilen sich eine Stromversorgung und Kühlung, Netzwerkanschlüsse und Speicher den anderen Komponenten im Chassis. Durchschnittlich verrichten Blade-Server die gleiche Arbeit mit bis zu 40 Prozent weniger Energie im Vergleich zu herkömmlichen Systemen. Bei einem Euro für zehn Kilowattstunden kann ein RZ mit 1.000 Servern allein durch den Einsatz von Blade-Servern bis zu 150k bis 200.000 Euro pro Jahr einsparen.
Natürlich lassen sich auch Speichersysteme zusammenfassen. Hier bieten sich zwei Möglichkeiten, den Energieverbrauch zu reduzieren. Beim Tiering, also die Nutzung unterschiedlich schneller und energiehungriger Speichermedien, werden Hochgeschwindigkeitslaufwerke nur bei Bedarf verwendet, während Laufwerke mit geringerer Leistung den Anwendungen zur Verfügung stehen, die keine sofortige Reaktion erfordern.
Virtualisierung hilft beim Energiesparen
Auch längst kein neuer Hut mehr: Virtualisierung. Anwendungen werden vielfach ineffizient über mehrere Systeme bereitgestellt, also von einem Rechner pro Anwendung, nur um die Abgrenzung zwischen Anwendungen zu gewährleisten. Hierbei verbraucht jeder Server annähernd die gesamte Energie, die sie bei Spitzenlast benötigen würde. Und trotzdem leistet jeder nur sehr wenig Arbeit für diesen Verbrauch. Mit Hilfe der Virtualisierung können Server und Speicher auf einer gemeinsam genutzten Plattform zusammengefasst und gleichzeitig eine strikte Trennung zwischen Betriebssystemen, Anwendungen, Daten und Benutzern aufrechterhalten werden.
Die meisten Anwendungen lassen sich auf getrennten virtuellen Maschinen ausführen, die sich tatsächlich die Hardware mit anderen Anwendungen teilen. Diese Virtualisierung verbessert die Hardware-Auslastung erheblich und ermöglicht es, die Anzahl der stromverbrauchenden Rechner und Speichergeräte deutlich zu reduzieren. Virtualisierung wird bei weitem nicht die Lösung aller Probleme sein, so müssen Rechenzentren möglicherweise für periodisch auftretende Spitzenlasten ausgelegt sein. In diesem Fall lassen sich kaum ausgelastete Systeme leider nicht umgehen. Virtualisierung wird allerdings für die meisten Umgebungen deutliche Vorteile bringen. Oder eben eine konsolidierte Speicherung. Laufwerke mit immer größerem Volumen auf derselben Größe sparen im Schnitt deutlich Energie ein. Nicht alle Anwendungen und Daten benötigen die höchsten Speicherklassen, auch wenn die Betreiber das immer behaupten. Viele werden den Umstieg von kleineren auf größere Laufwerke im Zeitalter vernünftig gecachter Systeme gar nicht bemerken.
Wenn mehrere vormals nicht ausgelastete Rechenzentren sich an einem Standort zusammenziehen lassen, könnte ein Unternehmen deutliche Einsparungen allein durch die gemeinsame Nutzung von Kühl- und Backup-Systemen erzielen. Ganz abgesehen von den auf der Hand liegenden Einsparungen bei den Liegenschaftskosten.
Energieverbrauch der CPUs reduzieren
Deutlich mehr als die Hälfte, der für den Betrieb eines Servers erforderlichen Energie wird von der CPU verbraucht. Deren Hersteller entwickeln ständig energieeffizientere Chipsätze, und Technologien mit vielen Prozessorkernen verarbeiten deutlich höhere Lasten bei weniger Verbrauch. Es gibt jedoch noch andere Optionen zur Reduzierung des CPU-Energieverbrauchs. Annähernd alle modernen CPUs verfügen über eine Energieverwaltungsfunktion, die den Stromverbrauch optimiert, indem sie basierend auf der Auslastung dynamisch zwischen mehreren Leistungs- und Belastungszuständen umschaltet, ohne dass die CPU zurückgesetzt werden muss.
Arbeitet die CPU mit geringer Auslastung, minimiert diese Power-Management-Funktion den Energieverbrauch, indem sie die Prozessor-Power-Zustände, also niedrigere Spannung und Frequenz, dynamisch herunterfährt, falls keine Spitzenleistung erforderlich ist. Das adaptive Energiemanagement reduziert den Stromverbrauch, ohne die Verarbeitungsleistung zu beeinträchtigen. Sollte eine CPU, die meiste Zeit nahe der maximalen Kapazität arbeiten, würde diese Funktion kaum Vorteile bieten, aber sie kann zu erheblichen Einsparungen führen, falls die CPU-Auslastung variabel ist.
Nochmal: Wenn ein Rechenzentrum mit 1.000 Servern den CPU-Energieverbrauch um ein Fünftel reduziert, bedeutet dies eine jährliche Einsparung von 150k bis 200.000 Euro. Allerdings haben viele Unternehmen Server mit einer solchen CPU-Eigenschaft gekauft, aber nicht aktiviert. Ein Schritt muss also sein, alle Rechner daraufhin zu überprüfen.
Netzteile sind der zweitgrößte Energieverbraucher im Server
Moderne Netzteile: Nach der CPU ist das Netzteil der zweitgrößte Verbraucher. Es wandelt lediglich Wechsel- in Gleichstrom um, verbraucht hierbei allerdings rund ein Viertel der Gesamtenergie eines Rechners. Daneben gibt es verschiedenste Spannungsregler, welche die verschiedenen Gleichspannungen bereitstellen, die im System benötigt werden. Die Gesamteffizienz eines Servers hängt in nicht unerheblichem Maße von der Effizienz des Netzteils und der Spannungsregelung ab.
Ein heute übliches Netzteil arbeitet mit einem Wirkungsgrad von rund 80 Prozent, in vielen Fällen allerdings auch weniger. Wieder ein Rechenbeispiel: Bei einem Server, bei dem das Netzteil mit einer Effizienz von 80 Prozent und die Spannungsregler mit einer Effizienz von 75 Prozent arbeiten, beträgt die Gesamtenergieeffizienz der Stromwandlung des Servers lediglich 60 Prozent. Die Anschaffungskosten für ein effizientere Netzteile sind zwar höher, allerdings machen sich die Energieeinsparungen schnell bezahlt. Besitzt das Netzteil einen Wirkungsgrad von 90 Prozent und die Spannungsregler von 85 Prozent, wäre die Gesamtenergieeffizienz des Systems größer als 75 Prozent. Ich weiß, ich nerve, aber: Ein Rechenzentrum mit 1.000 Servern könnte durch diese Anpassung über 100.000 Euro einsparen.
Auf die USV-Effizienz achten
Nicht vergessen: die USVs. Die meisten Geräte werden im Rechenzentrum nicht direkt von einer Stromquelle versorgt. Der Strom wird in der Regel durch eine unterbrechungsfreie Stromversorgung (USV) und Stromverteilungseinheiten (PDUs) geleitet, die den Strom dann mit der erforderlichen Spannung in Racks und Gehäusen verteilen. PDUs arbeiten dabei in der Regel mit einem hohen Wirkungsgrad von fast 100 Prozent, so dass die Effizienz der Strominfrastruktur in erster Linie von der Stromwandlungseffizienz in der USV bestimmt wird. Die Effizienz dieser Systeme wurde in den letzten Jahren erheblich verbessert.
Vor ein paar Jahrzehnten wurden noch siliziumgesteuerte Gleichrichter genutzt, um Gleichstrom der Batterien in Wechselstrom umzuwandeln. Diese Saurier arbeiteten im günstigsten Fall einen Wirkungsgrad von höchstens 80 Prozent. Mit der Einführung neuer Geräte mit isolierten Gate-Bipolartransistoren in den 1990er Jahren stieg die Schaltfrequenz, die Leistungsumwandlungsverluste sanken entsprechend und der Wirkungsgrad konnte auf bis zu 90 Prozent erhöht werden. Noch schnellere Systeme enthalten keine Transformatoren mehr und haben eine Effizienz von fast 95 Prozent.
Bei der Bewertung einer USV reicht es allerdings nicht aus, den Spitzenwirkungsgrad zu kennen, den diese unter Volllast liefern kann. Es ist eher unwahrscheinlich, dass eine USV irgendwann tatsächlich unter Volllast genutzt wird. Da viele Systeme zwei redundante Stromquellen verwenden, belastet ein typisches Rechenzentrum seine USVs mit weit weniger als 50 Prozent ihrer Kapazität, in einigen Fällen sogar lediglich mit 20 oder 30 Prozent. Selbst kleine Steigerungen der USV-Effizienz können sich schnell in deutlichen Beträgen niederschlagen. Verbraucht eine neue USV nur zehn Prozent weniger als der Vorgänger, könnte ein Rechenzentrum mit 1.000 Servern annähernd 100.000 Euro einsparen. Hinzu kommt eine Verlängerung der Batterielaufzeit und eine bessere Kühlung – niedrigere Temperaturen wiederum verlängern die Lebensdauer aller Komponenten und erhöhen allgemein Zuverlässigkeit und Leistung.
Kühlung: kalte und warme Ströme trennen
Der Klassiker: die Kühlung. Mehr als die Hälfte der Stromrechnung eines Rechenzentrums wird durch die Kühlsysteme verursacht. Viele dieser Systeme werden ineffizient eingesetzt oder nicht unter den empfohlenen Bedingungen betrieben. Hier also einige Schritte, wie sich auch hier Geld sparen lässt. Einrichtung der Gehäuse- und Schrankkonfigurationen für kalte und warme Gänge. So lassen sich wesentlich gleichmäßigere Lufttemperaturen erzeugen. Anbringung von Blindplatten bzw. Abweisern in Schränken, um eine Luftvermischung in kalten und warmen Gängen zu vermeiden.
Abdichtung von Kabelausgängen, um ungewollte »Bypass-Luftströme« zu vermeiden. Hierdurch zirkuliert die Kühlluft regelmäßiger durch das Rechenzentrum. Auch wenn es immer ungläubige Blicke erntet, dies Phänomen betrifft mehr als die Hälfte der Kühlluftversorgung in Computerräumen. Ausrichtung der Klimaanlagen in der Nähe der Schränke und senkrecht zu den heißen Gängen, um die Kühlung dort zu maximieren, wo sie am nötigsten ist.
Eine weitere Optimierung von Kühlsystemen kann durch den Einsatz von Zusätzen und Kühlmitteln erreicht werden. Hier wieder das typische Rechenzentrum mit 1.000 Servern: Wenn ein solches Rechenzentrum seine Kosten nur für die Kühlung nur um ein Viertel senken könnte, würden sich jährliche Einsparungen von mehr als 100.000 Euro ergeben.
Kennen Sie Ihre Infrastruktur
Und zum Schluss: vier Augen sehen mehr als zwei. Viele Betreiber kennen die Effizienz der Ausrüstung oder der Infrastruktur ihrer Standorte überhaupt nicht. Oder haben eine Vorstellung davon, wie eine solche Effizienz aufrechterhalten und verbessert werden könnte. Wie wir gesehen haben, gibt es viele Möglichkeiten, Energiekosten zu senken und umweltfreundlicher zu werden. Aber diese werden meist übersehen.
- Welcher Anteil des Budgets für EDV fließt in Energieversorgung?
- Wie viel fließt in die Unterstützungssysteme?
- Wie viel wirkliche Rechenleistung ergibt jede Kilowattstunde Strom?
Die Antworten auf all diese Fragen vermitteln ein gutes Bild davon, wie viel Energie für jede Komponente der Rechenzentrumsleistungen wie bereitgestellte Webseiten, verarbeitete Transaktionen oder verarbeiteter Netzwerkverkehr verbraucht wird. Es gibt viele Anbieter, die sich auf die Prüfung dieser Zahlen spezialisiert haben, und mit denen RZ-Betreiber zusammenarbeiten sollten, um eine gewisse Betriebsblindheit zu vermeiden. Hierbei werden Möglichkeiten zur Reduzierung des Energieverbrauchs identifiziert und priorisiert.
Mehr Energieeffizienz erreichen
Allerdings kann diese Energieeffizienz bereits verbessert werden, wenn man einige oder alle dieser Punkte aktiv durcharbeitet:
- Auffinden und Ausschalten nicht mehr benötigter oder nicht ausgelasteter Systeme
- Verbesserung der Auslastung durch Virtualisierung und Konsolidierung
- Anschaffung effizienterer Systeme
- Ersetzen der USVs durch solche mit höheren Wirkungsgraden
- Umsetzung energieeffizienter Verfahren zur Kühlung
RZ auf Energiesparsamkeit auslegen
Bei Neuerrichtung oder Totalumbau eines Rechenzentrums können noch andere Maßnahmen zur Wirkung kommen:
- Bildung einer funktions- oder abteilungsübergreifenden Mannschaft, um eine Strategie zur Energieeinsparung für den DV-Betrieb zu entwickeln
- Hinzufügen der Effizienz, neben Zuverlässigkeit und Nutzungszeit, als eine der Schlüsselanforderungen in die Anschaffungskriterien neuer Systeme
- Berücksichtigung der Energieeffizienz bei Berechnungen zu Betriebskosten bei der Auswahl neuer Server oder Speicher, Notstromaggregate oder Kühlsysteme
Und – wie immer: niemand hat jemals irgendwann und niemals Geld eingespart, indem er keines ausgegeben hat – bevor wieder die Leute mit »erstmal Geld für sowas haben« aus der Hecke kommen.
Gruß
Doc Storage
Weiterführende Links
- Doc Storage: Rechenzentren: Energie- und Stromhunger vs. Nachhaltigkeit
- Doc Storage: Wann benötigen Unternehmen einen Chief Digital Officer?
- Doc Storage: Wird NVMe-over-TCP das FC-SAN ablösen?
- Doc Storage: Storage: Edge-Computing gehört die Zukunft
- Doc Storage: Ist die Cloud die Zukunft? Ja, aber…