Für ein Unternehmen bergen gesammelte Daten ein immenses Potential: die Möglichkeit, fundierte und gut abgewogene Entscheidungen zu treffen. Unstrukturierte Datenbestände, komplexe Speicherumgebungen und hohe Kosten führen dazu, dass wertvolle Daten nicht oder auf ungeeignete Weise vorgehalten werden.
Wie kann man also von exponentiell wachsenden Datenmengen profitieren, ohne Nachteile bei der Speicherung in Kauf nehmen zu müssen?
Für viele Unternehmen, egal ob E-Commerce-Plattform, Finanzinstitut oder ein Unternehmen aus der Fertigungsindustrie, bergen Daten ein enormes Potential für die interne Entscheidungsfindung. Unternehmen werben gerne mit „data driven“ – also „datengetriebenen“ – Ansätzen, denn „data driven“ bietet den Vorteil präziser und praxisnaher Datengewinnung. Auch wenn der Begriff mittlerweile eher zum Marketing-Slogan geworden ist, zeigt er doch, dass interne Prozesse in Unternehmen zunehmend digitalisiert werden. Und er zeigt die wichtige Rolle von Daten bei der Entscheidungsfindung: Laut einer aktuellen Studie der Enterprise Strategy Group (ESG) stellen sieben von zehn Managern Daten in den Mittelpunkt ihres Unternehmenswachstums.
Steigende Sicherheitsbedrohungen durch Ransomware und der Mangel an geeigneten Abwehrstrategien, steigende Kosten, unkontrolliertes Datenwachstum und Cloud-basierte Modelle lassen auf einen branchenweiten Bedarf an umfassenden, kosteneffizienten Datenmanagement-Lösungen schließen. Doch haben Unternehmen die nötigen Fähigkeiten, um den größtmöglichen Mehrwert aus ihren Daten zu ziehen, oder werden sie durch das anhaltende Datenwachstum ausgebremst?
Wie man Datenmanagement und -aufbewahrung gewinnbringend optimiert
Experten gehen davon aus, dass sich das Datenvolumen in naher Zukunft alle zwei Jahre mehr als verdoppelt. Damit wird das Datenmanagement für Unternehmen noch komplexer als bisher. Angesichts der Vielzahl der zu verarbeitenden Daten müssen Unternehmen das Potential ihrer Daten erkennen, um sie über einen langen Zeitraum nutzen und erhalten zu können. Doch dafür benötigen sie eine langfristig angelegte Datenmanagement-Strategie. Bestimmte Daten müssen häufiger aufgerufen werden als andere. So müssen z. B. Ergebnisse aus Marktforschungen, die für eine anstehende Produkteinführung gebraucht werden, deutlich häufiger geöffnet und analysiert werden als Daten zur generellen Entwicklung des Unternehmens in den letzten drei Jahrzehnten. Die Marktforschungsdaten sind in diesem Beispiel „heiße Daten“ (hot data). Die Unternehmensdaten der letzten drei Jahrzehnte sind dagegen „kalte Daten“ (cold data) und werden nicht mit der gleichen Häufigkeit abgerufen. Sie erfordern damit nicht das gleiche Maß an Verfügbarkeit.
Unternehmen wissen, wie wichtig Datenmanagement ist, aber sie wissen nicht immer, wie sie die damit verbundenen Herausforderungen angehen sollen. Dabei haben die meisten Unternehmen bereits die nötigen Fähigkeiten für die Umsetzung einer Datenmanagement-Strategie. Es bedarf lediglich einer angemessenen Implementierung, die einen anderen Ansatz verfolgt. Viele Unternehmen zögern dennoch, ihre großen Datenmengen in unmittelbar und mittelfristig nutzbare Daten einzuteilen. Das führt oft dazu, dass unnötige Duplikate von Daten gespeichert werden. Oder im Gegenteil dazu, dass eigentlich wertvolle Daten gelöscht werden, um die Speicherkosten zu senken. Das alles führt zu Kostenexplosionen bei Speicherlösungen, die sich mit der richtigen Datenmanagement-Strategie vermeiden lassen. 78 Prozent der befragten Unternehmen in der Studie von ESG und Quantum gaben an, ihre Daten nicht lange genug im Primärspeicher aufzubewahren, wie sie es gerne tun würden. 88 Prozent sehen in der längeren Aufbewahrung ihrer Datenbestände eine Möglichkeit, um mehr Geschäftswert zu generieren.
Eine geeignete Strategie, um besser entscheiden zu können, wie und auf welchem Medium bestimmte Daten für wie lange aufbewahrt werden müssen, ist Tiered Storage. Diese Strategie prüft die Zugriffshäufigkeit auf Daten und ermittelt somit je nach Nutzungsszenario die geeignete Speicherebene (Storage Tier). Somit können Unternehmen ihre Daten optimal organisieren und deren Wert später voll ausschöpfen. Je nach Branche erweist sich dieser Ansatz zur Kategorisierung in „kalte“ und „heiße“ Daten als besonders sinnvoll. Das ist z. B. im Bereich Autonomes Fahren der Fall, wo die meisten Daten für die dauerhafte Speicherung bestimmt sind und selten abgerufen werden. Diese Daten können somit auf einer kostengünstigen Tiering-Ebene (ab 40 Euro pro Terabyte) gespeichert werden.
Die Aufbewahrung inaktiver Daten bleibt aus einer Vielzahl von Gründen wichtig. Unstrukturierte Bilddaten aus Überwachungskameras ermöglichen es, die Aufzeichnung eines Banküberfalls noch Jahre nach der Tat in einer Gerichtsverhandlung anzusehen. Auch beim Training von KI-Anwendungen werden große Datenmengen benötigt. Beiden Anwendungsszenarien gemein ist: Die Daten müssen in einem integren Zustand aufbewahrt werden. Dafür können sie zum Beispiel auf Tape-Speicherlösungen gesichert werden. Diese sind genauso leistungsfähig und sicherer als Cloud-Speicher. Lediglich bei der Geschwindigkeit des Datenzugriffs muss man ein paar Abstriche machen.
Um das Datenmanagement zu verbessern, können Unternehmen auch auf neue Software-Lösungen setzen. Mit dem Einsatz innovativer Technologien lassen sich Daten schneller nutzen. Beispielsweise kann die automatische Speicherung auf unterschiedlichen Tiering-Ebenen erfolgen, wodurch Unternehmen erhebliche Kosten einsparen können.
Daten nach Nutzen auswählen: die Notwendigkeit strategischer Datenspeicherung
Angesichts des ständig wachsenden Datenvolumens ist es für Unternehmen unerlässlich, eine langfristige und zukunftssichere Storage-Strategie zu entwickeln, um die Daten optimal zu verwalten. Wie eingangs erwähnt, stellt die langfristige Aufbewahrung relevanter Daten sicher, dass Unternehmen aus ihren Daten einen Mehrwert für ihre Entscheidungsfindung schaffen und so die Zukunft ihrer Organisation aktiv gestalten können. Auf diese Weise können sie auch Wettbewerbsvorteile erlangen.
Angesichts der großen Menge an Daten fällt es Unternehmen jedoch schwer, zu erkennen, welche Daten langfristig von Nutzen sind und aufbewahrt werden sollten.
Zu den größten Sorgen von Unternehmen zählen die Themen Datensicherheit und die Einhaltung von Compliance-Vorschriften im Umgang mit Daten, die hohen Kosten für Datenspeicherung und der Mangel an geeigneten Speicherlösungen, die die nötige Performance zu einem günstigen Preis bieten. Angesichts dieser Herausforderungen liegt es nahe, Daten löschen zu wollen, die nicht relevant erscheinen.
Längere Speicherfristen können allerdings nicht nur zu einer besseren Monetarisierung der Daten beitragen, sondern auch die Resilienz erhöhen und Unternehmen so weniger anfällig für Cyberangriffe machen. Eine gute Backup-Strategie vermindert den Schaden, den Cyberkriminelle anrichten können, wenn sie Daten löschen oder verändern. Unternehmen können sich besser von einem Angriff erholen, wenn sie schnell und kostengünstig eine saubere Kopie ihres Backups wiederherstellen können, ohne Lösegeld zahlen zu müssen.
Fazit:
Unternehmen müssen ihre Daten langfristig aufbewahren, um wirklich Nutzen aus ihnen ziehen zu können. Um ihre Speicherkosten dabei zu minimieren, müssen sie wissen, welche häufig abgerufenen Daten als „heiße“ Daten in eine hochperformante Tiering-Ebene gehören und welche Daten als „kalte“ Daten für eine niedrigere Ebene bestimmt sind. Auf dieser Grundlage bieten sich Unternehmen verschiedene Lösungen zum Management ihres „Datenkapitals“ an. Damit minimieren sie die Auswirkungen eines Cyberangriffes und halten das Speicher-Budget niedrig – ohne dabei Zugriffsgeschwindigkeiten auf häufig genutzte Daten einzuschränken.