Sekundärdaten sind unstrukturiert und beanspruchen sehr viel Speicherplatz. Für KMUs lautet die Empfehlung: hybride Speicher mit niedrigen Kosten pro TByte und eine Tiering-Technologie zu etablieren. Wir sprachen mit Frank Reichart, Senior Director Product Marketing Storage Solutions bei Fujitsu, über die »Probleme« mit Sekundärdaten.
◼ Laut Fujitsu gehören Sekundärdaten in Unternehmen zu den größten Herausforderungen. Wie definieren Sie Sekundärdaten und was genau ist das Problem?
Reichart: Sekundärdaten entstehen nicht in geschäftskritischen Anwendungen und werden auch nicht täglich genutzt. In der Regel sind es Daten, die nicht in Datenbanken entstehen oder von Datenbanken verwaltet werden – und die daher unstrukturiert sind. Typische Beispiele sind Dateien wie Dokumente, Fotos oder Videos. Sie werden im Gegensatz zu Primärdaten nur ab und zu verwendet oder nur für alle Fälle aufbewahrt, beispielsweise in Archiven. Oder sie werden gesammelt, um zu einem späteren Zeitpunkt in Trendanalysen ausgewertet zu werden.
Frank Reichart, Fujitsu: »Es ist nur eine Frage der Zeit, bis der Mittelstand PByte-Dimensionen erreicht.«Das Problem dabei ist, dass sie wesentlich mehr Speicherplatz beanspruchen als Primärdaten. Durch die zunehmende Digitalisierung gibt es zudem immer mehr Datenquellen – etwa im Internet-of-Things, bei dem beispielsweise Maschinen, Autos, Flugzeuge, Smart-Home-Lösungen und zahllose weitere »Dinge« mittels Sensoren eine Vielzahl von Daten generieren. Einige dieser Daten müssen sofort verarbeitet werden, andere gewinnen erst über einen längeren Zeitraum kumuliert oder zu einem späteren Zeitpunkt an Wert. Das Problem der effizienten Datenhaltung verschärft sich zusätzlich, da es häufig erforderlich ist, diese Daten online verfügbar zu machen. Sie müssen beispielsweise für die Verwendung durch Business-Analytics-Tools und zunehmend auch für Machine-Learning oder Künstliche-Intelligenz-Systeme ständig verfügbar sein. Eine Auslagerung auf den kostengünstigsten Speicher, nämlich Tape, ist somit nicht möglich. Die Folge: Die Storage-Kosten können explodieren.
◼ Was empfehlen Sie mittelständischen Unternehmen? Wie unterscheiden sich Primär- und Sekundärspeicher?
Reichart: Auf Primärdaten wird häufig zugegriffen und die oberste Priorität dabei sind kurze Zugriffszeiten. Hierfür eignen sich schnelle Flash-Speicher, also Solid-State-Disks (SSDs). Bei Sekundärdaten ist das Ziel, große Datenmengen kostengünstig zu speichern, während die Zugriffszeiten keine große Bedeutung haben. Hier eignen sich Festplatten mit einer hohen Kapazität und niedrigen Kosten pro TByte. Ein hybrides Storage-System, das es erlaubt, SSDs und Festplatten in einem System zu kombinieren, ist daher für Mittelständler meistens die beste Lösung.
◼ Wie sieht aus Ihrer Sicht eine sinnvolle Speicherstruktur für Primär- und Sekundärdaten aus? Inwieweit lassen sich Sekundärdaten, Backup und Archivierung kombinieren?
Reichart: Eine sinnvolle Speicherstruktur sind hybride Storage-Systeme in Kombination mit einer intelligenten Auto-Tiering-Software. Sie sorgt dafür, dass Daten je nach Zugriffshäufigkeit und Geschwindigkeitsanforderungen, auf dem richtigen Medium gespeichert werden. Damit wird kontinuierlich für die richtige Balance zwischen Zugriffsgeschwindigkeit, Kapazität und Kosten gesorgt. Bei Sekundärdaten, auf die nur sehr selten zugegriffen wird, können auch Cloud-Speicher eine sinnvolle Alternative sein. In diesem Fall spielen die Latenzzeiten des dazwischenliegenden Netzwerkes keine Rolle und auch die Übertragungskosten halten sich in Grenzen. Viele Cloud-Provider bieten zwar günstige Kosten pro Kapazität, verlangen aber Extragebühren für die Netzwerkbandbreite oder Nutzung. IT-Verantwortliche müssen daher bereits im Vorfeld bei der Auswahl der passenden Lösung auf die Gesamtkosten achten. Grundvoraussetzungen für die effiziente Nutzung von Speicherkapazitäten in der Cloud sind eine klare Trennung von Primär- und Sekundärdaten sowie ein vergleichsweise hoher Anteil von Sekundärdaten, auf die wenig zugriffen wird.
Backup und Archivierung haben jeweils eine völlig andere Zielsetzung als das Speichern von Sekundärdaten. Diese Kategorien sollten auf keinen Fall vermischt werden. Bei Backups geht es darum, verschiedene zeitliche Versionen von Daten für einen kürzeren Zeitraum abzuspeichern (Tage, wenige Wochen), um bei Datenverlust oder -Korruption (Daten nicht mehr lesbar, freiwillig oder mutwillig gelöscht oder verändert) die Daten schnell wieder herstellen zu können. Bei Archiven geht es – meist aus rechtlichen Gründen – darum, Originaldokumente oder Daten in einer endgültigen Version lange aufzubewahren.
◼ Wie sieht hier die Lösungen von Fujitsu aus?
Reichart: Mit der ETERNUS Storage-Produktfamilie bietet Fujitsu für jedes Szenario eine passende Technologie: ETERNUS AF All-Flash Storage für den schnellstmöglichen Zugriff auf Primärdaten, ETERNUS DX Hybrid Storage um die unterschiedlichen Anforderungen für Primär- und Sekundärdaten in einem System abzudecken, ETERNUS CS Backup Appliances für die schnelle Wiederherstellung von Daten und LT-Tape-Systeme für die kostengünstige Langzeitarchivierung.
◼ Das Datenwachstum plagt Unternehmen jeder Größe, vor allem unstrukturierten Daten wird ein anhaltend, rasantes Wachstum vorhergesagt. Wie sehen Sie hier die Entwicklung in den kommenden Jahren. Worauf sollten sich Unternehmen und IT-Abteilungen einstellen?
Reichart: Durch neue Datenquellen, die durch die Digitalisierung entstehen, wird weiterhin ein exponentiell ansteigendes Datenwachstum stattfinden. Es ist nur eine Frage der Zeit, bis im Mittelstand PByte-Dimensionen erreicht werden. Spätestens dann wird man auch dort über einen Architekturwechsel für Sekundärspeicher nachdenken müssen. Dies werden Objekt-orientierte und Software-definierte Scale-out Storage-Architekturen sein, die heute erst in Nischen von sehr großen IT-Infrastrukturen vorkommen, etwa bei Service-Providern. Kurz- und mittelfristig bleiben aber die bewährten klassischen Storage-Architekturen die erste Wahl.