Die IT im Unternehmen muss immer laufen und die Anwender benötigen ständigen Datenzugriff. Eine Anforderung, die längst auch bei kleineren Unternehmen angekommen ist, wobei hier natürlich das Budget immer ein Thema ist. Wir sprachen mit Sven Meyerhofer, Geschäftsführer von N-Tec, über bezahlbare Hochverfügbarkeits-Lösungen und worauf IT-entscheider achten sollten.
Herr Meyerhofer, Definitionen von Hochverfügbarkeit gibt es viele? Wie lautet Ihre?
Sven Meyerhofer, N-Tec: »HA beinhaltet immer eine physische Redundanz sowie im Optimalfall auch eine räumliche Trennung in einem anderen Brandabschnitt.«Meyerhofer: Hochverfügbarkeit bedeutet zunächst 24×7 Datenverfügbarkeit. Echte Hochverfügbarkeit, nach unserer Definition, benötigt immer auch physische Redundanz, weswegen wir unsere Lösungen in der Regel im 2-er Bundle vertreiben. Diese sind über einen synchronen Spiegel verbunden, der dafür sorgt, dass beide Systeme zu jedem Zeitpunkt denselben Datenstand aufweisen. Das heißt, Applikationen schreiben parallel auf beide Systeme. Fällt ein System aus oder wird zu Wartungszwecken heruntergefahren, übernimmt der verbleibende Knoten vollständig die kompletten Storage-Aufgaben. Nach dem Re-Start des zweiten Systems erfolgt die Resynchronisation der beiden Systeme. Entscheidend für den Anwender ist dabei, dass dies vollkommen transparent im Hintergrund ohne Beeinträchtigung des laufenden Geschäftsbetriebes geschieht. Wir sprechen hier von Auto-Failover und Auto-Failback. Und diese beiden Komponenten sind für uns Voraussetzungen, um von Hochverfügbarkeit zu sprechen.
Was ist der Unterschied zur Replikation? Warum ist High-Availability (HA) so wichtig?
Meyerhofer: Bei der Replikation wird eine Datenkopie erstellt und in der Regel mit etwas Zeitversatz an einen internen oder ausgelagerten Standort geschrieben. Dies ermöglicht eine Wiederherstellung der Datenbestände mit einem gewissen, möglichst geringen Daten-Delta und Zeit-Rahmen, nicht aber den unterbrechungsfreien Betrieb ohne jeglichen Datenverlust. Und wie wir wissen, Zeit ist Geld.
Replikations-Lösungen sind meist etwas kostengünstiger, nicht jeder Mittelständler kann oder will sich eine große HA-Lösung leisten. Mit Rapidcore versuchen wir deshalb, echte Hochverfügbarkeit für eben jene Klientel bereit zu stellen – individuell konfiguriert, mit entsprechenden Hard- und Software-Komponenten.
Wie sollten KMUs an ein Hochverfügbarkeits-Konzept herangehen? Was gilt es zu beachten?
Meyerhofer: Folgt man der Regel, dass HA immer auch physische Redundanz, also mindestens zwei Appliances benötigt, heißt dies auch, dass im Optimalfall eine räumliche Trennung, etwa in zwei Brandabschnitten eines Rechenzentrums oder in zwei Rechenzentren umgesetzt sein sollte. Wir bieten darüber hinaus auch 3-Knoten-Lösungen für Kunden, die bei einem Ausfall oder der Wartung einer RZ-Seite nach wie vor 100-prozentige Hochverfügbarkeit vor Ort sicherstellen wollen. Wiederherstellung aus einem asynchronen Replikat erfolgt erst danach.
Zu beachten ist außerdem, dass Hard- und Software-Komponenten optimal aufeinander abgestimmt sind. Dies erreicht man eventuell, indem man eine Komplettlösung von einem Großanbieter bezieht. Doch dies ist in der Regel preisintensiv und nicht immer rentabel.
Wenn wir also herangehen, und von »maßgeschneidert« sprechen, heißt dies auch, wir folgen einem modularen Konzept in Hardware-Ausstattung und Software-Komponenten. »Schlüsselfertig« ist die Lösung dann, wenn alles problemlos ineinandergreift.
Dafür arbeiten wir intensiv mit diversen Anbietern zusammen, mit Datacore sind wir Software-seitig bereits seit 2009 erfolgreich. So sind wir in der Lage, zertifizierte Lösungen zu bieten und falls doch einmal notwendig, stehen bei Support- und Service-Fragen kompetente lokale Ansprechpartner beim Hersteller und natürlich bei uns bereit.
Wie kann eine bezahlbare und mittelstandsgerechte Hochverfügbarkeits-Lösung aussehen?
Meyerhofer: Je nach Anforderungen bieten wir Server-Einheiten von zwei bis acht Höheneinheiten, Intel- oder AMD-Prozessoren, iSCSI oder Fibre Channel, 2,5- oder 3,5 Zoll-Platten, HDD oder SSD mit Auto-Tiering. Die Appliances können konvergent eingesetzt werden. Das heißt, als reines Speichersystem unterhalb der Applikationsebene, oder hyperkonvergent, also mit Server- und Storage-Hypervisor auf derselben Hardware. Möglich ist auch als Block-Speicher-Erweiterung oder Konsolidierungs-Plattform.
Die Möglichkeiten sind also je nach Bedarf vielfältig, und die Frage pauschal schwer zu beantworten. Als Hausnummer und typische Einstiegslösung nenne ich unser rapidCore 224-G4-Bundle. Das besteht aus zwei Appliances, vier 10GbE-Nics und zehn SAS-SSD für unter 20.000 Euro. Software-seitig sind dabei synchrones Spiegeln, zentrales Management, High-Speed-Caching, Disk-Pooling, Load-Balancing und Thin-Provisioning inkludiert. Inklusive zwei Tage Vor-Ort-Installation und -Schulung sowie drei Jahre Care-Pack liegen die Kosten bei schlüsselfertiger Übergabe bei unter 30.000 Euro netto.