Storage im Fokus 2023: Wake-up-Call eines Ransomware-Betroffenen

Storage im Fokus 2023: Wake-up-Call eines Ransomware-Betroffenen

it-daily.net und speicherguide.de informierten zusammen mit Branchenführern, im Rahmen des Digitalevents »Storage im Fokus«, über Trends in den Bereichen Storage-Infrastrukturen, Nachhaltigkeit und Storage-Sicherheit. Aufrüttelnd dabei der Bericht eines Ransomware-Betroffenen: Keine Technologie scheint vor dem Unvermeidbaren komplett zu schützen.

Bereits zum dritten Mal fand der gemeinsame Digitalevent »Storage im Fokus« am 26.10.2023 von it-daily.net und speicherguide.de statt (#storage23). Zum übergeordneten Thema »Fit for Future!« referierten ausgewiesene Technologie-Experten, jeweils zu ihren unterschiedlichen Ansätzen bezüglich Sicherheit, Skalierbarkeit, Hochverfügbarkeit, Backup & Recovery. Am Ende stand neben Verfügbarkeitsszenarien, Air-Gaps, Zero-Trust, Backups und Archiven near- und offline, aktiv oder passiv und anderen Hochtechnologien ein eher ernüchterndes Ergebnis: Be prepared! Der Worst Case kommt – früher oder später.

Anzeige

Themenbereich Storage-Infrastrukturen

Sven Heisig, Senior Manager Solutions Engineering bei NetApp widmete sich dem Thema »Storage-Innovationen gegen die bösen Drei: Komplexität, Sicherheitsrisiken, Silos«. Im Hintergrund dabei stehen Bestrebungen des einstigen NAS-Urgesteins, eine Unified-Storage-Plattform für Block (SAN), File (NAS) und Objekte unter einheitlichem Management zu schaffen (speicherguide.de berichtete kürzlich), natürlich inklusive Cloud-Diensten. Heisig betonte dabei Hersteller-Garantien bezüglich Verfügbarkeit, Efficiency (brutto versus netto-Nutzbarkeit) und Ransomware. So verpflichte sich Netapp ab einer Ausfallzeit von über 32 Sekunden per annum (entspricht der Verfügbarkeit von 99,999 Prozent), in Gewährleistung zu gehen. Das Ziel ist Effizienz, Flexibilität und Nachhaltigkeit bei der Datenspeicherung.

Diese Ziele teilt in großen Teilen der, zumindest im deutschsprachigen Raum, direkte Wettbewerber DataCore, vertreten durch Senior Product Marketing Manager Alfons Michels. Freilich mit einem ganz anderen Ansatz: Hardware-, CSP- und Internet-Provider-Unabhängigkeit durch einen reinen Software(-defined)-Ansatz, den Michels im Vortrag »Do it yourself – bestimme Deinen Speicher selbst« darlegte. Reduzierte Abhängigkeiten sowie Fluidität der Daten und Datentypen (Block, File, Object) sollen die Effizienz erhöhen.

Seinen Ausführungen zu Grunde liegt die Annahme eines mündigen Users. Der IT-Manager müsse sich entscheiden, ob er gewisse Daten Performance- oder eben Kapazitäts-orientiert handhaben möchte. Dedup und Kompression, asynchrone Replikation und alle Storage-Services, die Datacore und viele andere im Portfolio haben und die in Richtung Sicherheit wirken, gingen unweigerlich auf Kosten der Performance. Deswegen sei ein adaptives, fluides Data-Placement für den Kunden letztlich der Weg.

Anzeige

Energiesparen & Nachhaltigkeit

Data-Placement, wenn auch anders gewendet, war auch das Thema von Ines Wolf, Manager PreSales CE bei Quantum. Sie konzentrierte sich in ihrem Vortrag eindrucksvoll detailliert auf »Energiekosten einsparen, CO2-Emissionen senken: Nachhaltigkeit im Rechenzentrum mit Object Storage & Tape«. Sie sieht in Tape eine strategische Lösung insbesondere für Hyperscaler, aber nicht nur: Sie kalkuliert für Tape etwa zehn Prozent der Energiekosten im Vergleich zum Disk-Backup, nebst längerer Haltbarkeit der Bänder in der Energiebilanz. Erasure Coding von kalten Daten auf Disk und Tape in einer Objekt-Lösung sei danach die effektivste Lösung in Bezug auf Kosten pro TByte, Handhabung (Zugriff), Ransomware-Schutz und letztlich Nachhaltigkeit.

Monetär betrachtet, meint Quantum, würde die Kombination eines Tape-/Disk-Backups von Objekten bei einer Kapazität von 500 TByte rund 17 Prozent, bei einer Kapazität von 50 PByte rund 77 Prozent an Kosten sparen. Also rund 80 Prozent geringere Systemgesamtkosten (TCO, Total Cost of Ownership) und bis zu 96 Prozent weniger CO2-Emissionen im Vergleich zu einer Disk-only-Lösung bieten.

Freilich verlockend ab einer gewissen Größe – die allerdings den deutschen Mittelstand kaum betreffen wird. Zu Grunde liegt offenbar auch eine kalkulierte Tape-Haltbarkeit von 30 Jahren. Jedoch: Selbst, wenn diese besteht, wer kann in drei Dekaden mit einem Laufwerk und Schnittstellen aufwarten, um diese Daten zu lesen. Und wer sollte es wollen oder müssen? Fairnesshalber sei gesagt, Quantum kann Disk-only auch. Warum wohl?

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.

Storage-Sicherheit & Ransomware

Hannes Heckel, Fast LTA
Hannes Heckel, Fast LTA

Hannes Heckel, Leitung Marketing bei FAST LTA, wenig überraschend, outete sich direkt im Anschluss gleich als nicht unbedingt größter Freund von Tape, und derartiger General-Kalkulationen. Gleichwohl kann man den Vortragstitel »Die Wunderwaffe gegen Ransomware: das aktive WORM-Archiv« auch nicht von jeder Marketing-Attitüde freisprechen.

Er spricht an, dass Backups selbst mittlerweile massiv das Ziel von Cyberattacken sind. Zudem seien RPO (Recovery Point Objective) und RTO (Recovery Time Objective) durch die Datenlast am Limit. Seine Antwort: ein Disk-basiertes, aktives Archiv, als Offload der temporären Datensicherung und gleichzeitig WORM-Sicherungsinstanz (Write Once Read Many) gegen Ransomware. Es böte den erforderlichen Air-Gap, aber im Bedarfsfall auch zeitnahen Zugriff per Random-Access.

Zur Nachhaltigkeit berichtet er, dass eigene Systeme bis zu zwölf Jahren im Einsatz seien. Auch würden Teile jener Archive passiv geschalten, weswegen Berechnungen von Tape versus ständig drehender Disks nicht zielführend seien.

Zur Immutability- Thematik führt er an, dass laut DSGVO eine Nicht-Wiederherstellbarkeit auch mit Online-Systemen realisierbar sei, durch Hardware-WORM, S3-Object Locking, Snapshots und anderen Technologien. Nichts, was dem Tape vorbehalten wäre. Statt der Quadratur »Flash, Disk, Tape, Object« erachtet er den Fünfklang »Flash, Disk, Air-Gap, Object, Archive« als sinnvoller. Für ihn ist das Archiv in Erwägung einer Kosten-/Nutzen-Relation auf Disk-/SSD-Basis offenbar sinnvoller. Archiv ist dabei kein »Datengrab«, sondern eben aktiv und von Nutzwert. Dem werden allerdings auch Tape-Anhänger und -Verkäufer in Zeiten von LTFS (Linear Tape File Systems) kaum widersprechen.

Realität meets Technologie: Der Traum vom Backup

Florian Lohoff, IT- und Automatisierungs-Experte
Florian Lohoff, IT- und Automatisierungs-Experte

Das findet Florian Lohoff im Großen und Ganzen alles ganz gut und sinnvoll. Er ist Freelancing Software Developer mit besonderem Linux-Hintergrund, laut Selbst-Auskunft nicht unbedingt ein Windows-Experte. Dennoch wurde er von der Hahn Group, ein deutscher Mittelständler mit relativ globaler Marktabdeckung im Bereich industrieller Automation, um Hilfe gebeten.

Hintergrund: An einem Freitag-Abend erkannten Nicht-IT-Mitarbeiter an Endgeräten Anomalien. PC- und Datenzugriffe verweigert, Edge-Geschäftsbetrieb unmöglich, Panik wurde greifbar. Lohoff schildert, wie mit Umsicht, Verstand, Geduld, Eile, prozessualen und materiellen Vorkehrungen und einem klaren Plan die Ausmaße der Katastrophe immerhin eingeschränkt und bewältigt werden konnten.

Lohoff sagt, dass ein wichtiger Faktor war, dass von der Geschäftsführung bis zum Auszubildenden jeder an einem Strang gezogen habe. Klar, technische Expertise, intern wie extern, und Krisenstäbe von der Geschäftsführung bis zu den Fachabteilungen nachts und am Wochenende waren notwendig, schnell zur Stelle, unermüdlich. Lohoff konstatiert gute Präparation, Vorsorge, bestes mögliches Vorgehen angesichts der Umstände, aber auch Fehler und Glück im Unglück. Auch die emotionale Komponente spiele eine wichtige Rolle.

Ach ja: Man entschied sich gegen Lösegeldzahlung und für ein rapides Neuaufsetzen der Systeme. Zumindest in den Bereichen Netzwerk und Server/Applikationen/VMs. Lohoff meint, die Daten-Backups waren in Ordnung, nur wusste man das nicht und sie hätten nicht geholfen, um den Geschäftsbetrieb wiederherzustellen. Sogar noch weiter wörtlich: »Backups verzögern die Wiederherstellung«.

Einig waren sich alle: Automation (im Gespräch erwähnt auch als »Infrastructure as Code«, ein Buzzword, das unter anderem von IBM promoted wird und ein Konzept bezeichnet, das die Bereitstellung von Compute, Storage und Netzwerk auf Basis von maschinenlesbarem Code ermöglicht) sei Trumpf. Prozesse müssen vorab klar sein, Zuständigkeiten zugewiesen, Notfall-Pläne erstellt, Dokumentation abseits der Befallbarkeit definiert werden…Backup allein helfe nicht in allen Fällen.

So der Konsens. 100-prozentigen Schutz wird es nicht geben. Es bleibt dabei: »Du wirst getroffen, die Frage ist nicht ob, sondern wann«, und wie vorbereitet ein Unternehmen ist. Ein denkwürdiges Fazit.

Anmerkung der Redaktion

Michael Baumann, speicherguide.de
Michael Baumann, speicherguide.de

Man stelle sich vor: Nichts funktioniert mehr. Ein Mitarbeiter schlägt Alarm, ausgerechnet jetzt, Freitagabend. Die IT-Abteilung ist dank des wachen Mitdenkers kurz danach in derselben Position. Der ad-hoc einberufene Krisenstab entscheidet: Shutdown für alles – Active-Directorys (AD), VMs, Datenbanken, Storage-Shelfs, Server, E-Mail, Telefonanlagen – sogar Netzwerkstecker und Stromkabel werden gekappt – Dokumentation mit Passwörtern, IP-Adressen und Zugangsberechtigungen werden gesucht. Wer kennt »GodAdmin« und wohin distribuiert er Daten? Was alle noch nicht wissen: Es wird zwei Wochen benötigen, um wieder Geschäftsfähigkeit herzustellen. Aufträge, Materialwirtschaft, Lohnbuchhaltung – alles steht zunächst still.

Um klarzustellen: Es handelt sich um einen Fast-Idealfall der Krisenbewältigung, den die Hahn Group in Rekordzeit bewältigt hat. In etwas mehr als zehn Tagen, mit etwa 30 IT-Mitarbeitern, schafft  man es, ein neues AD aufzusetzen und diverse ESXi-Server und rund 1.800 Clients fundamental zu rekonstruieren. Horror, aber Glück im Unglück und Resultat guter Prävention, umsichtiger Krisen-Intervention sowie interner und externer Expertise. Chapeau!

Dies zeigt aber auch deutlich die Limitationen von Datensicherungen auf. Die Aussage »Backups verzögern die Wiederherstellung« bezieht sich in diesem Fall primär auf die notwendige Trennung von Anwendungsdaten und Betriebssystemen, auf denen sie letztlich dann wieder laufen. Hoffentlich. Die Nutzdaten sind dort eher nachgeordnet und markieren die Grenzen der von uns beschriebenen Backups.

Grundsätzlich stellt sich die Frage: Was macht ein kleiner Mittelständler mit zwei IT-Mitarbeitern, deren Grundkompetenz nicht Ransomware-Bekämpfung ist? Die Expertenrunde war sich sehr einig: Kaum eine Überlebenschance! Das ist ernüchternd.

Die oft beschworene »Last Line of Defense«, die wir in Idealwelten aus Datenblättern extrahieren, gibt es so nicht. All die Technologien, mit denen wir uns sinnvollerweise beschäftigen, sind im Notfall nur Teil eines komplexen Prozesses, und kein Ruhekissen.

Was uns angesichts der Schilderungen besonders berührt hat: Motivierte Mitarbeiter hatten angesichts des Stresses und des Dilemmas Tränen in den Augen: Ihr Lebenswerk in Minuten zerstört. Das kann keine KI und kein ML. Wir empfehlen deshalb nachdrücklich die Aufzeichnung unseres Digitalevents »Storage im Fokus«. Nicht unbedingt unsere Wortwahl, aber wer mehr Zeit mitbringt, auch: You are fucked – Deutschlands erste Cyberkatastrophe · Podcast in der ARD Audiothek

Weiterführende Links:

Michael Baumann, speicherguide.de

Michael

Baumann

Redaktion

speicherguide.de

Anzeige

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.