Enterprise und Automotive: Das wird im nächsten Jahr wichtig!

Die Zukunft der Arbeit weltweit ist hybrid. Zu diesem Ergebnis kommen mehrere Studien wie der Sharp-Report „Future of Work“, welcher die Bedürfnisse der modernen Arbeitswelt untersucht. Dies stellt Arbeitgeber vor eine neue Herausforderung.

Wenn Mitarbeiter von mehreren Standorten aus arbeiten, können kritische und vertrauliche Daten nicht mehr an einem einzigen zentralen Ort gespeichert werden. Um dennoch auf die Daten zugreifen und sie schützen zu können, müssen Unternehmen lokale, externe und Cloud-Backups sowie Archivierungslösungen einsetzen. 

Anzeige

Langzeitarchivierungsdaten oder auch „Cold Storage“ werden auf kostengünstigen Ebenen gespeichert. Grundsätzlich werden darunter Informationen verstanden, die über einen langen Zeitraum archiviert werden, bis sie zum Einsatz kommen, beispielsweise im Falle eines Ausfalls oder eines Cyberangriffs. Da die Welt mehr gespeicherte Daten denn je generiert und speichert, z.B. für Videomaterial, gewinnt Cold Storage an Relevanz. Es ist die erste Wahl für Daten, die geschützt werden müssen, auf die aber nicht innerhalb von Millisekunden zugegriffen werden muss – beispielsweise Backups von Unternehmen. Wenn mittelständige bis große Firmen beginnen, Sicherungskopien mehrfach an verschiedenen Orten zu erstellen, steigt die Speichermenge in den Rechenzentren weiter an. Konzerne müssen dann prüfen, wie ihre Daten am effizientesten archiviert werden können.

Die Bedeutung von Cold Storage ist auch eine Antwort auf das Problem von Ransomware-Angriffen. Denn diese können weitaus geringere Auswirkungen haben, wenn der Zugriff auf Sicherungskopien möglich ist. Dasselbe Prinzip gilt für extreme Wetterereignisse wie Überschwemmungen. Diese Daten, die nicht aktiv benötigt werden, können in Cold Storage-Pools zu geringeren Kosten gespeichert werden.

Die meisten Cold Storage-Archive sind entweder auf Bändern oder auf Festplattenlaufwerken (HDDs) untergebracht. Bandspeicher sind zwar preiswerter als HDDs, haben aber auch eine höhere Latenzzeit beim Datenzugriff. Dies macht sie zu einer Option für Informationen, die noch länger aufbewahrt werden müssen. HDDs und Plattformen der nächsten Generation spielen dabei eine entscheidende Rolle. Sie verbessern sowohl die Gesamtbetriebskosten als auch den Zugang zu Archivlösungen. Dazu gehören Zoning, höhere Flächendichten, mechanische Innovationen und neue Materialinnovationen. 

Anzeige

Der Aufstieg des grünen Rechenzentrums

Mit Blick auf das Jahr 2021 hat die COP26 deutlich gemacht, dass es für Unternehmen immer mehr Möglichkeiten gibt, sich zu Nachhaltigkeitszielen zu verpflichten und den Weg zur Klimaneutralität einzuschlagen. Rechenzentren können der größte Stromverbraucher eines Landes sein und zu einem erhöhten Kohlendioxidausstoß beitragen. Denn ihr Energieverbrauch steigt trotz – oder gerade wegen – Corona an.

Die Bereitschaft, auf hochkapazitive Laufwerke umzusteigen, wird vermutlich zunehmen, da wenige Laufwerke mit hoher Kapazität energieeffizienter sind als mehrere Laufwerke mit niedriger Kapazität. Darüber hinaus wird die Speicherdichte pro Rack erhöht und die Anzahl dieser, die zum Erreichen der erforderlichen Kapazität benötigt werden, kann reduziert werden. Dies wiederum führt zu einer weiteren Senkung des Gesamtstromverbrauchs und der TCO.

Mit JBoD-Lösungen kann der Stromverbrauch gesenkt werden, indem jedes Laufwerk auf intelligente Weise mit maximaler Leistung betrieben wird. Dies ist möglich, weil die Laufwerke von Vibrationen isoliert werden und der Luftstrom so kanalisiert wird, dass optimale Betriebstemperaturen aufrechterhalten werden. Andernfalls würden diese die Leistung beeinträchtigen und zusätzlich eine teure Kühlung erfordern. Unternehmen werden deswegen zunehmend Rechenzentren und Betriebsabläufe bevorzugen, die mit Luftkühlung oder erneuerbarer Energie betrieben werden: Ab Mitte 2021 werden die Anlagen von Western Digital in Nordkalifornien zu 100 % mit erneuerbarer Energie betrieben.

Neue Sorgen um die Datensouveränität

Nach Angaben von McKinsey hat die Pandemie die Einführung digitaler Technologien um mehrere Jahre beschleunigt, und zwar sowohl bei Unternehmen als auch bei öffentlichen Einrichtungen, von Bildungseinrichtungen bis zum Gesundheitswesen. Dies hat die Datensouveränität wieder in den Mittelpunkt des Interesses der Unternehmen gerückt.

Die regionale Kontrolle über die von digitalen Technologien erzeugten Daten wird für sie dabei eine Priorität sein. Im Zuge der digitalen Transformation müssen IT-Verantwortliche dafür sorgen, dass die Daten vorschriftsmäßig gespeichert und geschützt werden. Für Unternehmen mit Sitz in der EU bedeutet dies, dass die Daten innerhalb der EU-Grenzen bleiben müssen.

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.

Die Zukunft der Spiele könnte in der Cloud liegen

Im Jahr 2021 hat es eine zunehmende Verlagerung der Spiele von den Geräten in die Cloud gegeben. TV- und Film-Streaming-Dienste haben auch für das Gaming neue Erwartungen geweckt. Netflix ist sogar in den Cloud-Gaming-Markt eingestiegen und bringt Ende 2021 Netflix Games für alle mobilen Geräte auf den Markt. Das Rechenzentrum spielt hierbei eine Schlüsselrolle, sowohl bei der Ermöglichung von Online-Spielen als auch bei der Speicherung von Live-Streaming-Inhalten. Die Verlagerung zum Cloud-Gaming dürfte sich noch beschleunigen, und Unternehmen wie Xbox und Netflix werden gezwungen sein, ihre Rechenzentren zu virtualisieren, um in diesem neuen Gaming-Klima rentabel zu bleiben.

Im Bereich der Spiele wird im kommenden Jahr der Aufstieg von nicht-fungiblen Token (NFTs) beginnen. EA hat sogar öffentlich erklärt, dass NFTs Teil der Zukunft der Spieleindustrie sind. Bei diesen Token handelt es sich um einzigartige, auf Blockchains gespeicherte Dateneinheiten, die die Echtheit von Produkten belegen und es den Spielern ermöglichen, personalisierte herunterladbare Inhalte zu vermarkten, von Waffen über Cheat-Codes bis hin zu Packs. NFTs basieren auf einer verteilten Speicherarchitektur, die es ermöglicht, Eigentumsrechte zu validieren und auszutauschen. Da Unternehmen und Privatpersonen das Potenzial von NFTs untersuchen, müssen auch die Speicheranforderungen berücksichtigt werden.

Autonome Fahrzeuge: ein 10-Jahres-Ziel

Die ersten teilautonomen Fahrzeuge lösten Prognosen über eine baldige Masseneinführung aus. Faktisch ist es jedoch so, dass das autonome Fahren, bei dem der Fahrer die Navigation vollständig übernehmen kann (von der Society of Automotive Engineers (SAE) als Level 5 bezeichnet), erst innerhalb der nächsten zehn bis 15 Jahre erfolgen wird. 

Die Pandemie hat die Innovationen im Bereich autonomer Fahrzeuge deutlichgebremst. 2022 wird es allerdings zur Wiederaufnahme wichtiger Kooperationen sowie Konsortien zwischen Technologie- und Automobilverbänden ebenso wie die Fortsetzung des Aufbaus der entscheidenden Infrastruktur, einschließlich 5G, kommen.

Damit vernetzte Autos optimal funktionieren können, ist die Einführung dieser Technologie erforderlich. Sie bietet hohe Geschwindigkeit und geringe Latenzzeiten, um Daten schnell genug vom Fahrzeug an das nächstgelegene Datenzentrum sowie an benachbarte Fahrzeuge und externe Infrastrukturen zu übertragen. Vehicle-to-everything (V2X) ermöglicht es Automobilen, mit verschiedenen Teilen des Verkehrssystems zu kommunizieren (z. B. straßenseitige Einheiten, andere Fahrzeuge), was für ein sicheres Fahren und die Reaktionszeit der Fahrzeuge entscheidend ist.

Clustered Storage für autonome Fahrzeuge

Während die autonomen Fahrzeuge von heute eine verteilte Speicherarchitektur verwenden, werden zukünftige Automobile standardmäßig auf eine Cluster-Speicherung setzen. Diese Cluster oder Zonen werden mit einem zentralen „Gehirn“ kommunizieren, in dem kritische Daten gespeichert werden und das eine einfachere Testbarkeit und Wartung ermöglicht. Vernetzte, autonome Autos werden als kleine Datenzentren fungieren.

Die Zukunft des autonomen Fahrens wird sich auf die Datenverarbeitung stützen, die im zentralen Knotenpunkt stattfindet. Dieser wiederum kommuniziert mit den einzelnen Zonen, z. B. nimmt die Anwendungssoftware Daten aus internen Karten zusammen mit den neuesten Informationen über Ereignisse wie Unfälle, schlechte Bedingungen oder potenzielle Gefahren, um die bestmögliche Route zu berechnen. Die fahrzeuginternen IoT-Sensorgeräte wie Kameras, Radar und Lidar tragen ebenfalls dazu bei, ein vollständiges Bild der gesamten Verkehrssituation zu erhalten. Diese Art der Speicherarchitektur wird sich auf eine zentrale Rechen- und Speicherlösung stützen und nicht auf eine verteilte Lösung mit zahlreichen Steuer- und kleinen Speichergeräten. Dadurch werden das Gewicht des Fahrzeugs und die damit verbundenen Kosten gesenkt werden. Diese Architektur wird auch von Nachhaltigkeitsaspekten angetrieben: Das geringere Gewicht des Fahrzeugs und die lokalen Speicherorte bedeutet weniger CO2-Emissionen.

Zonale Architektur für autonome Fahrzeuge

Während die autonomen Fahrzeuge von heute eine verteilte Speicherarchitektur nutzen, werden die Fahrzeuge von morgen auf eine zonale Speicherarchitektur als Standard setzen. Diese zonalen Cluster werden mit einem zentralen „Gehirn“ kommunizieren, in dem kritische Daten gespeichert werden und das eine einfachere Testbarkeit und Wartung ermöglicht. Die Cluster werden auch das Gewicht des Fahrzeugs verringern. Der Grund dafür ist, dass die zonalen Cluster weniger Verkabelung im eigentlichen Fahrzeug erfordern.

Anzeige

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.