Storage-Experten setzen sich mit Speichertechnologien, software-defined Storage und Virtualisierung auseinander. In erster Linie geht es bei all diesen Überlegungen darum, bestimmte Daten zur richtigen Zeit am richtigen Ort zu speichern. Die Sicherheit der Daten hat höchste Priorität.
Software-Defined-Storage (SDS) und das neue Objekt der Begierde
Die Flut an strukturierten und unstrukturierten Daten nimmt immer weiter zu, und so die Notwendigkeit bei fast gleichbleibenden Budgets immer mehr Speicher bereit zu stellen. Vor allem unstrukturierte Daten wachsen überproportional und wecken Begehrlichkeiten: vor allem nach günstigem Speicher, am besten in rauen Mengen. So hat sich Objektspeicher schnell neben Block- und file-basiertem Storage etabliert. Doch nicht jede Speicherform eignet sich für jede Anforderung und isolierte Lösungen enden schnell in Sackgassen.
Um Daten adäquat zu speichern, stehen für alle drei Ansätze HDD und SSD in unterschiedlichsten Ausprägungen (Formfaktoren, Kapazitäten, Performance und Latenz) zur Verfügung. Unabhängig davon, ob sie lokal, verteilt oder in der Cloud genutzt werden, haben Block-, Datei- und Objektspeicher Vor- und Nachteile. Wo also liegen die Unterschiede?
Blockspeicher: Suche nach Verfügbarkeit und Performance
Blockspeicher kann als Basiselement aller drei Speicherformen gesehen werden. In Reinform wird er primär für strukturierte Daten verwendet, da für sie der Fokus auf vielen kleinen Datenänderungen mit höchstmöglicher Performance bei niedriger Latenz und permanenter Verfügbarkeit liegt. Auf Blockspeicher greift man im Regelfall über SAS (Serial Attached Small Computer System Interface), SAtA (Serial At Attachment), fC (Fibre Channel), iSCSI (Internet Small Computer System Interface) oder NVme (Nonvolatile Memory Express) zu.
Typische Anwendungsgebiete liegen bei sich permanent ändernden Daten und Anwendungen mit zufälligen Lese-Schreib-Vorgängen, also etwa Datenbanken oder geschäftskritischen Applikationen wie ERP-Systeme. Typische Installationsgrößen liegen heute zwischen 10 und 200 Terabyte. Ausnahmen, vor allem nach oben, bestätigen die Regel.
File-basierter Speicher: Verwaltbarkeit im Fokus
Beim Dateispeicher dagegen liegt der Schwerpunk auf Kollaboration, für den geteilten Zugriff auf häufig von Nutzern veränderte Daten. Der Zugriff erfolgt üblicherweise mittels eines hierarchischen Dateisystems über Network File System (NFS)- und Server Message Block (SMB)-Protokolle, wie sie von Network Attached Storage (NAS) lokal oder auch in der Cloud genutzt werden.
Der Schwerpunkt liegt hier auf der einfacheren Verwaltbarkeit der Daten in Dateiform, neben Performance und Verfügbarkeit. Erreicht wird das über die Dateisysteme, mit denen der nicht direkt ansprechbare darunterliegende Blockspeicher verwaltet wird. Installationen reichen typischerweise von etwa 20 Terabyte bis in den unteren Petabyte-Bereich. Auch hier gibt es regelmäßig Ausnahmen in beide Richtungen.
Das neue, deutschsprachige eBook informiert über den State of the Art der Datenspeicherung.
Storage@Work
Jetzt für den Newsletter 📩 anmelden und sofort herunterladen! 🔥
Deutsch, 40 Seiten, PDF 7,9 MB, kostenlos