Die Arbeitsweise im Data Center ändert sich: Bisher war die Verwaltung von virtuellen Servern und Speichern im Rechenzentrum Standard. Aber hyperkonvergente Infrastrukturen setzen sich immer mehr durch und zeigen den Weg zum Software-gesteuerten Rechenzentrum auf.
Lassen sich Ressourcen aus dem Rechenzentrum nicht schnell genug zur Verfügung stellen, gehen IT-Projekte im Unternehmen meist nur schleppend voran. In dem Fall droht, dass Fachabteilungen auf Programme von Cloud-Plattformen ausweichen, welche die IT-Abteilung nicht auf Compliance geprüft und abgesegnet hat. Dadurch entsteht Schatten-IT, die es zu verhindern gilt. Ist das firmeneigene Rechenzentrum aber skalierbar, effizient, flexibel und sicher, lässt sich ein solches Szenario abwenden. Die interne IT gewinnt zudem das Vertrauen der Fachabteilungen zurück, weil sie die steigenden Ansprüche an Ressourcen und Datenmengen bedienen kann.
Unternehmen kürzen jedoch zunehmend die IT-Budgets. Die IT muss die Hardware effizienter auslasten. Nur ein modernes Betriebskonzept für das Rechenzentrum entlastet die IT Mitarbeiter. Das gängige Kostenargument, eine Modernisierung im Rechenzentrum sei zu teuer, lässt sich widerlegen: Eine neue Hardware im Data Center benötigt weniger Platz, Strom und Kühlung. Die Capex (Capital Expenditure), die Anschaffung der notwendigen Hardware, schlägt mit 25 Prozent der Gesamtausgaben zu Buche. Die Opex (Operational Expenditure) – der Betrieb der IT-Systeme – beanspruchen die restlichen 75 Prozent der Kosten. Die Kalkulation für eine digitale Transformation im Rechenzentrum sollte den Stromverbrauch und das Management stärker in den Fokus rücken. In der Regel schließt die Modernisierung im Data Center die Server-Virtualisierung ein, die für besser ausgelastete und flexibel zuteilbare Rechnerkapazitäten sorgt.
Virtualisierte Server und Speicher
Der Trend geht klar dahin, geschäftskritische Server und Produktivsysteme zu virtualisieren. Ein Hypervisor stellt hierbei virtuelle Server, sogenannte Virtuelle Maschinen (VMs) zu Verfügung. Die VMs betreiben Gastbetriebssysteme und teilen sich die Hardware, was Serverressourcen besser auslastet.
Für eine erfolgreiche Virtualisierung des Servers ist der sogenannte Shared Storage ein unabdingbares Element. Die Speichervirtualisierung bildet die notwendige Basis für Software Defined Storage (SDS), wobei die Abstraktionsschicht die Hardware-Eigenschaften und das Speichermanagement voneinander trennt. Ein Hypervisor virtualisiert Host-interne Storagemedien wie SDDs und HDDs und macht sie als Speicher verfügbar. Auch lässt sich so das leistungsfähige Speichermedium Flash integrieren. Die Speicher werden als eigenständige Ressourcen gehandelt und sind softwaregesteuert skalierbar. Software-gesteuerte Speicher helfen Datenanalysten beispielsweise Big Data zu realisieren. Auch Cloud-Speicher-Services basieren auf SDS. Die Technologie steht noch am Anfang, aber sie wird langfristig Appliance-basierte Storage-Systeme ablösen.
Wie sich eine stärkere Virtualisierung in der Praxis auswirkt und umsetzen lässt, zeigt das Rechenzentrum der Stadtwerke Schwäbisch Hall. Diese versorgen 60 Energiebetriebe, die etwa 600.000 Kunden in ganz Deutschland betreuen. Ende 2011 zeichnete sich der Endausbau für die IT ab. Die gespiegelten Storage-Systeme waren voll und ließen sich nicht erweitern. Der IT-Leiter favorisierte eine Building-Block-Technologie, die sich letztendlich aus Cisco-UCS-Blade-Systemen, Nexus-Komponenten und dem Speichersystem VNX 5500 zusammensetzt. Externe IT-Spezialisten betreuen nun neben der Storage-Umgebung der Stadtwerke zusätzlich im Managed Service Systemlandschaften von Citrix, VMware und Cisco. Diese Maßnahme reduzierte den Administrationsaufwand für die Stadtwerke auf null. Die Private-Cloud-Lösung mit virtualisierten Rechnern zeichnet sich durch eine hohe Skalierbarkeit und mehr Flexibilität aus.
Für Software Defined Network (SDN) lässt sich eine ähnliche Entwicklung wie bei SDS beobachten – nur läuft sie hier deutlich verzögert ab. Ein SDN wird über bestehende Layer-3-Netzwerke gespannt. Das transformiert das physikalische Netzwerk zum Transportmedium. Software steuert das Netzwerk, wobei die Entscheidungen für den Transport der Datenpakete auf der Control Plane (Steuerungsebene) fallen. Das Weiterleiten der Datenpakete findet auf der darunter liegenden, unabhängigen Data Plane (Datenzugriffsebene) statt.
Konvergente und hyperkonvergente Infrastruktur
Netzwerk, Storage, Virtualisierung und Compute – die Komponenten des Rechenzentrums – werden mehr und mehr als integriertes System, als eine Einheit, verstanden. Anwender können so Speicherplatz und Rechenleistung stufenlos nach oben und unten skalieren. An integrierten Systemen unterscheidet man konvergente und hyperkonvergente Infrastrukturen. Konvergente Systeme setzten sich aus den Hardware-Komponenten Server, Speicher und Netzwerkinfrastruktur zusammen, die Experten steuern und verwalten. Die Systemkomplexität bleibt sichtbar und steigt beim Erweitern an.
Hyper Converged Infrastructure Appliances (HCIA) lassen sich hingegen einfach über eine Management-Konsole verwalten. In wenigen Tagen ist eine komplette Infrastruktur mit diesen Appliances/Racks installiert. IT-Experten können HCIAs laut Hersteller schon in einer Stunde betriebsbereit einrichten. Hyperkonvergente Lösungen benötigen im Data Center lediglich zwei Rack-Höheneinheiten, wodurch Firmen ihre Infrastruktur schnell um ein weiteres Gerät ergänzen können. Vor allem in Niederlassungen und Filialen ohne IT-Personal zeigen hyperkonvergente Lösungen ihre Stärken.
In der Praxis bewähren sich hyperkonvergente Infrastrukturen. Bei ihnen liegt der Management-Schwerpunkt nicht auf der Ebene der IT-Komponenten, sondern auf der Ebene der Applikation und der virtuellen Maschine. So gibt es keine Silos von unabhängigen IT-Komponenten und keine Notwendigkeit, einzelne Geräte zu verwalten. Die resultierende einfache und flexiblere IT-Infrastruktur beschleunigt den Einsatz der Ressourcen und kann die Betriebskosten erheblich senken. Seit der Virtualisierung ist die Hyperkonvergenz der größte Fortschritt in der IT, wobei sich die nächste Entwicklungsstufe mit dem SDDC ankündigt.
Software steuert das Rechenzentrum der Zukunft
Ein HCIA ist im Prinzip ein kleines Software Defined Datacenter (SDDC). Alle Speicher- und Netzwerkressourcen werden im SDDC von einer Software virtualisiert. Auf die elastischen Pools der Software lässt sich meist über ein Self-Service-Portal zugreifen. Die Software arbeitet im Hintergrund und automatisiert Arbeitsabläufe, die IT-Fachkräfte sonst manuell steuern müssten. Das verschlankt und beschleunigt IT-Prozesse, während das System Monitoring- und Reporting-Aufgaben bewältigt. Auch eine höhere Sicherheit ist im SDDC zu erreichen, da die Virtualisierung eine granularere und nachvollziehbarere Umsetzung von Security Lösungen ermöglicht. Zudem sind Zusatzfunktionen wie Showback oder Chargeback für eine transparente Verrechnung der IT-Ressourcen denkbar.