Zurzeit haben es alle wichtig mit Backup & Gedöns. Der World Backup Day soll Aufmerksamkeit erzeugen. Auf Backup spezialisierte Anbieter und vor allem Security-Experten werden nicht müde, vor Ransomware und Cyberattacken zu warnen und Backups als Lebensversicherung hervorzuheben. Alles richtig, laut Doc Storage helfen Backups im Katastrophenfall aber nichts. Zudem sind viele gängige Thesen nur Worte, die Praxis sieht meist anders aus…
Zurzeit haben es alle wichtig mit Backup & Gedöns. Der World Backup Day soll Aufmerksamkeit erzeugen. Auf Backup spezialisierte Anbieter und vor allem Security-Experten werden nicht müde, vor Ransomware und Cyberattacken zu warnen und Backups als Lebensversicherung hervorzuheben. Alles richtig, laut Doc Storage helfen Backups im Katastrophenfall aber nichts. Zudem sind viele gängige Thesen nur Worte, die Praxis sieht meist anders aus…
Kolumne Doc Storage:
Wenn es um Wiederherstellung geht, ist Backup nutzlos – Disaster-Recovery aber unbezahlbar…
Backup ist natürlich wichtig, keine Frage. Jeder, kleine Installationen oder Unternehmen, sollte all seine Geräte und Daten regelmäßig sichern, für den Fall, dass diese kompromittiert werden. Es gibt jedoch einen deutlichen Unterschied zwischen dieser Sicherung der Daten, die von einem einzelnen Anwender generiert wurden und deren Eigentümer sie sind, und den Daten, die von einer Organisation erstellt wurden, unabhängig von deren Größe. Während »einfache« Backups für Einzelpersonen ausreichen könnten, reichen herkömmliche Backups für Unternehmen nicht mehr aus. Der primäre Zweck eines zweiten Datensatzes besteht darin, eine Firma nach Datenverlust, -beschädigung oder kriminellen Ransomware-Angriffen wieder auf die Füße zu helfen. Backup-Systeme sind allerdings für die Aufgabe der Disaster-Recovery (DR) nicht geeignet.
Es ist an der Zeit, sich neue Gedanken zu Datenschutz zu machen. Daten zu archivieren und an einen anderem Ort zu lagern, in der Erwartung, dass sie hoffentlich nie wieder gebraucht werden, ist mehr als antiquiert. Unternehmen können es sich schlicht nicht mehr leisten, Wochen, Tage oder einfach nur Stunden auf die Wiederherstellung ihrer Daten zu warten. Die Systeme müssen so schnell wie möglich wieder zur Verfügung stehen. Vor allem dank Public-Clouds wurden DR und Backup so radikal verändert, dass dies möglich ist. Im Folgenden wollen wir uns damit beschäftigen, warum Backups für DR nutzlos sind. Und wie man DR richtig macht, um sich möglichst schnell von Katastrophen zu erholen.
These: Die Verfügbarkeit ist von größter Bedeutung
Die Zeiten haben sich geändert, wem sage ich das. In der On-Demand-Wirtschaft erwartet der Nutzer, dass die DV-Systeme immer einsatzbereit sind. Jeglicher Ausfall wirkt sich auf Kunden, Mitarbeiter und am Ende auf den Umsatz aus.
These: Zwei unangenehme Wahrheiten über Backups
Die erste: Schrödinger kennt diese Situation – der Zustand eines Backups ist unbekannt, bis man es wiederherstellen will.
Die zweite: Backup-Systeme sind für die Sicherung optimiert, nicht für die Wiederherstellung. In den meisten Fällen werden Tage oder gar Wochen gebraucht, um ein komplettes Rechenzentrum aus Backup-Systemen wiederherzustellen. Wiederherstellung en gros war nie auch nur ansatzweise ein Designziel von Backup-Systemen.
These: Ransomware wird zur Hauptursache für Ausfallzeiten
Ausfälle können durch Überschwemmungen, Tornados, Brände, menschliche Fehler und andere (meist unerwartete) Ereignisse entstehen. Ransomware, dieses gar nicht mehr neue, kriminelle Phänomen, entwickelt sich jedoch immer mehr zu einer der Hauptursachen für Ausfälle. Nach mehreren glaubwürdigen Studien waren in den letzten zwei Jahren über die Hälfte der Unternehmen von Katastrophen betroffen, die von Naturereignissen über Stromausfälle bis hin zu Ransomware reichen. Unter diesen Katastrophen wurde Ransomware mit weitem Abstand als Hauptursache identifiziert, wobei über zwei Drittel der Befragten angaben, Opfer eines solchen Angriffes geworden zu sein.
These: Disaster-Recovery ist wichtiger als jemals zuvor
Die starke Zunahme von Ransomware-Angriffen und anderen kriminellen Bedrohungen hat Backups annähernd nutzlos und DR wichtiger denn je gemacht. Obwohl es immer schnellere Backup-Systeme auf dem Markt gibt, sind diese immer noch nicht in der Lage, eine ausreichend schnelle und vor allem zuverlässige Wiederherstellung zu gewährleisten. Heute steht die Geschwindigkeit der Wiederherstellung und damit, wie schnell man nach einem Ereignis wieder online ist, im Mittelpunkt der Anforderungen. Um diese zu erfüllen, muss eine umfassende DR-Strategie aufgestellt werden.
These: Backups sind im Katastrophenfall absolut nutzlos
Obwohl Backups ein erster richtiger Schritt sind, können sie wegen des reinen Zeitaufwands und der manuellen Arbeit, die für die Wiederherstellung solcher Sicherungen nach einer Katastrophe erforderlich sind, keine effektive DR-Strategie sein. Man stelle sich nur einmal 100 TByte vor, die in einem Backup-System abgelegt sind, welches mit 500 MByte/s wiederherstellen kann, und diese Annahme ist schon optimistisch. In einem K-Fall dauert es damit länger als zwei Tage, um alle Daten vom Backup-System in ein primäres Speichersystem zu kopieren. Effektive und damit vor allem schnelle DR erfordert Automatisierung, und diese auf allen Ebenen.
These: Vollständige DR-Automatisierung umfasst mehr als nur einen Schritt
(A) Zugriff auf die richtigen Daten in der Infrastruktur eines anderen Herstellers. Backup- und Speicherhersteller ignorieren gerne, dass es bei DR nicht nur um diesen einen Schritt geht.
(B) Anordnen der Lasten in der passenden Reihenfolge auf den entsprechenden Systeme, Rücksicht auf eventuelle Flaschenhälse im Kanal oder im Netzwerk. Hier zeigt sich immer wieder, dass dieser Schritt in virtualisierten Umgebungen einfacher als in physischen ist.
(C) Test eines Rückfalles in den ursprünglichen Standort, und zwar unter Berücksichtigung aller Arbeitslasten und Flaschenhälse.
These: Heutige Unternehmen erfordern eine sofortige RTO
In den meisten Fällen kann es sich kein Unternehmen mehr erlauben, den Zugriff auf seine DV-Systeme für Stunden, Tage oder gar Wochen zu verlieren. Hier erfordert eine effektive DR eine möglichst kurze RTO (Recovery Time Objective). Backup-Systeme sind hierfür nicht ausgelegt. Vernünftige DR-Lösungen liefern unmittelbare RTO-Neustarts.
These: Public-Clouds haben Disaster-Recoverys geändert
Public-Clouds bieten Computing nach Anforderung und anpassungsfähige Speicher. Nutzer können Daten auf kostengünstigen Medien in eine Region ihrer Wahl kopieren und im K-Fall entfernte Rechenleistung sofort nutzen, um mit den Daten sofort wieder arbeiten zu können. Darüber hinaus müssen nur Ressourcen bezahlt werden, welche man in einem Notfall oder bei Tests verwendet. Dies stellt die ideale Nutzung moderner Public Clouds dar.
These: Zusammenspiel Backup und DR in der Cloud
Ein wichtiger Teil von DR besteht darin, Daten an einen entfernten Standort zu übertragen. Dieser sollte von einer möglichen Katastrophe nicht betroffen sein und über die entsprechenden Ressourcen für den Betrieb nach der Wiederherstellung verfügen. Hierfür müssen Backups dauerhaft in einer Public-Cloud gespeichert werden, um sie dann im K-Fall automatisiert sofort in virtuelle Maschinen zu starten. Hiermit erhält man eine optimal kurze RTO für eine beliebige Anzahl von Systemen.
These: DR muss einfach, schnell und bezahlbar sein
Durch die Nutzung einer Public-Cloud und den dort angebotenen Technologien ist es möglich, Backup (auf erschwingliche Medien und mit granularer Wiederherstellung) und DR (automatisiert und schnell) zusammenzuführen. Wenn man es weit genug konzipiert, wird ein sofortiges Failover einer gesamten Produktionsumgebung praktisch auf Knopfdruck ermöglicht. Hier entfällt im Idealfall die Notwendigkeit, alle Backup- und DR-Komponenten manuell zusammenzusuchen und abzustimmen.
Antithese: Die meisten Cloud-Umgebungen machen die Nutzer arm
(Fast) alle Betreiber von Public-Cloud-Diensten werben mit all diesen in den zehn Thesen erwähnten Vorzügen – sofortige Verfügbarkeit, Flexibilität, virtuelle Maschinen usw. Leider muss man die Preislisten aller Anbieter sehr genau lesen. Groß geworben wird mit den Preisen pro GByte Speicher, pro virtueller Maschine und deren vielen Eigenschaften wie Hauptspeicher, Anzahl der Prozessorkerne und Bandbreite der Anbindung. Im klitzeklein Gedruckten findet man dann Angaben dazu, wieviel ein einzelner I/O kostet, und zwar beim Einlagern von Daten, aber auch beim Auslesen. Somit bleibt der eigentliche Preis für eine solche Umgebung meist ein Glücksspiel, und man hat nicht selten Nutzer erlebt, deren DR-Strategie in der Cloud wunderbar funktioniert hat, die man allerdings in die Kardiologie einliefern musste, als sie die erste Rechnung bekommen haben. Also – immer schön auch das am kleinsten Gedruckte lesen.
Gruß
Doc Storage
- Doc Storage: Backup-Monitoring von grundlegender Bedeutung
- Doc Storage: Standortbestimmung Tape, HDD und Flash
- Doc Storage: Was ist ein Ingress- und Egress-Datenverkehr?
- Doc Storage: Unterschiede der Performance-States von SSDs
- Doc Storage: SSDs: Was ist mit den Schreibzyklen, wenn SSDs fast voll sind?