Alles in die Cloud verlagern und die eigenen Server abschalten? Das galt lange als Ausweis von Fortschritt und Zukunftsfähigkeit. Die Realität zeigt, dass es gute Gründe geben kann, die eigenen Unternehmensdaten unter Kontrolle zu halten – und womöglich ganz oder teilweise aus der Cloud zurückzuholen.
Egal, welches Modell man künftig wählt: Rechenzentrums- und Netzwerks-Infrastruktur müssen den Anforderungen angepasst werden. Sicherheit zählt hier mehr als nur der Blick auf die Kosten.
Lange galt Deutschland als ein Land von Cloud-Verweigerern, ja, sogar als rückständig im Vergleich zu den USA und den asiatischen Staaten, wo Cloud-Computing schnell eine große Anhängerschaft fand. Inzwischen hat sich die Lage gewandelt. Gemäß dem „Cloud Monitor“ von Bitkom und KPMG, nutzen bereits drei Viertel aller Firmen Cloud-Services. Zudem entwickeln sich diese immer mehr zum substanziellen Bestandteil der IT-Landschaft.
Eine weitere aufrüttelnde Prognose traf das Marktforschungsunternehmen Gartner vor zwei Jahren: Bis 2025 werden 80 Prozent der Unternehmen ihre eigenen Rechenzentren schließen. Dies schien auf den ersten Blick den Kurs Richtung Cloud zu bestätigen.
Cloudifizierungs-Strategien ausdifferenziert
Doch andere Kundenbefragungen wiesen eher auf einen gegenläufigen Trend: So gaben im Nutanix Enterprise Cloud Index 2019 73 Prozent der Befragten an, dass sie Daten und Anwendungen aus der Cloud zurückholen in die eigenen Rechenzentren. Wohin die Reise tatsächlich geht, klärte sich in der Nutanix-Umfrage des Folgejahres: Hier nannten 86 Prozent eine hybride Cloud-Umgebung als das ideale Modell ihrer Unternehmens-IT. Rechenzentren, die nicht auf die Cloud-Nutzung ausgelegt waren, wurden deshalb geschlossen. Stattdessen entstanden in den Unternehmen Hyperconverged Infrastructures (HCI), die in der Lage sind, interne und externe Cloud-Services – Private und Public Clouds, aber auch Colocations, also ausgelagerte Rechenzentren – im Hybrid-Betrieb zu nutzen. Daneben ist auch ein gemischtes Modell aus Private Cloud, Public Cloud und traditionellem Rechenzentrum unter diesen Unternehmen besonders häufig zu finden.
Und auch beim Blick auf die Gartner-Studie zeigt sich, dass der Trend weg vom klassischen Rechenzentrum nicht automatisch heißt, sich voll und ganz den Cloud-Providern anzuvertrauen. Die Marktexperten kommen vielmehr zu dem Schluss, dass künftig weniger die Technik als vielmehr das Business-Modell darüber entscheidet, wo Daten und Applikationen laufen. So nennt diese Analyse neben Cloud und (zentralem) Rechenzentrum auch das Edge Computing als relevante Option.
Rein in die Cloud oder raus aus der Cloud?
Während die frühe Phase der Cloud-Nutzung häufig von der Vorstellung getrieben war, dass Cloud-Services das bestehende Rechenzentrum zunächst erweitern, in einer mehr oder weniger nahen Zukunft sogar vollkommen ersetzen, hat sich inzwischen auf breiter Front die Erkenntnis durchgesetzt, dass die Kooperation von lokalem Rechenzentrum, Colocations und Cloud-Services noch eine ganze Weile nötig ist. Die meisten unternehmenseigenen Data Center müssen für diese Aufgabe jedoch erst fit gemacht werden.
Häufig entwickeln sich entsprechende Projekte schnell zu einer Mammut-Aufgabe. Denn alleine schon die strategische Entscheidung zum Betriebsmodell erfordert umfangreiche Vorarbeiten zu Planung und Konzeption. Je nach Gewichtung der drei grundlegenden Optionen – On Premise (inklusive Private Cloud), Colocation oder Public Cloud – sieht das weitere Vorgehen höchst unterschiedlich aus.
Wann kommt Europa?
Es ist kein Geheimnis, dass das Warten auf native europäische Lösungen, Standards und Anbieter in diesem globalisierten IT-Markt noch viel Geduld und noch mehr Initiative erfordern. GAIA-X ist bislang nicht viel mehr als ein ambitioniertes Versprechen, während längst die Transformationen in cloudkompatiblen Umgebungen und Konsolidierungsvorhaben in Bewegung sind.
Beispielsweise führt Gartner in seiner aktuellen HCI-Studie vom Dezember 2020 die Top-Ten-Anbieter. Davon sind sechs aus den USA, zwei aus China bzw. dem APAC-Raum, einer aus Großbritannien und immerhin einer aus Deutschland. Europa ist nachhaltig im Kommen, auch in führenden Technologien wie dem Quanten-Internet, das langfristig die Rechenzentrumswelt ebenso fundamental verändern wird wie mittelfristig die Cloud-Service-Strukturen die Konsolidierungen antreibt.
Mischbetrieb erfolgreich managen
Im Zentrum dieser Entscheidung stehen drei Überlegungen: Welche Anwendungen sollen in Public Clouds verschoben, welche in der eigenen Bestands-IT On-Premise oder in einer Private Cloud behalten, welche in eine Colocation ausgelagert werden? Werden die Ziele durch die Erneuerung der Bestands-IT oder vielmehr durch die Zusammenlegung verschiedener Standorte erreicht? Und welche Sicherheitsarchitekturen und -standards muss eine zukünftige Unternehmens-IT als balanced environment befolgen und beantworten können?
Dass diese drei Optionen für das system placement optimal zusammenspielen ist nicht nur die Grundlage für einen störungsfreien Betrieb im Arbeitsalltag, sondern auch für die Flexibilität, bei sich verändernden Anforderungen die Gewichtung von On-Premise, Colocation und Cloud neu auszutarieren. Erreicht werden kann dieses Ziel zum Beispiel mittels hyperkonvergenter Systeme. Hier werden Rechen-, Speicher, Netzwerk- und Virtualisierungsressourcen zu einer Software-definierten Einheit zusammengefasst und als eine einzige Anwendung verwaltet.
In der Konsequenz werden komplexe Infrastrukturen zentralisiert und vereinfacht. Optimierungen kommen nicht nur punktuell, sondern systemweit zum Tragen, sprich: Die Effizienz und Leistungsfähigkeit der gesamten IT-Infrastruktur werden verbessert. Aber auch Trends wie serverless computing erzeugen signifikante Effekte bei der Ausrichtung strategischer Betrachtungen für eine zukunftsfähige IT und optimale IT-Standortentscheidungen im Hinblick auf ein konsistentes und wohldurchdachtes Konsolidierungsvorhaben.