Wie innovativ ist die Speicher-Branche wirklich – gibt es Entwicklungssprünge oder eher sukzessive, sozusagen folgerichtige Weiterentwicklungen? Treibt der Absatz den Markt oder die Kreativ-Kräfte in Entwicklungsabteilungen? Wir sprechen mit vielen Marktbeteiligten, um die Innovationskraft im Bereich Storage auszuloten. Denn eines ist klar: Innovationen werden für Unternehmen jeder Größe auf dem Weg der umfassenden Digitalisierung »from Core to Edge« notwendig sein.
IDC prognostiziert die Prioritäten der digitalen Transformation (Grafik: IDC)Im Rahmen der Online-Veranstaltung FutureScape informiert IDC mit mehr oder weniger konkreten Prognosen für die Jahre ab 2022. Dies betrifft unterschiedlichste Geschäftsbereiche, auch ohne Fokus auf Storage. Demnach bleibt der Trend in Richtung einer »Digital-First«-Welt. IDC geht davon aus, dass bis 2022 mehr als die Hälfte der Weltwirtschaft komplett digital funktioniert oder von der Digitalisierung beeinflusst sein wird.
»Die Digitalisierung ist heute ein fester, aber dynamischer Bestandteil unserer Welt. Die IT- und Kommunikationsbranche selbst wird in den nächsten Jahren zu denen gehören, die sich am stärksten verändern«, kommentiert Rick Villars, Vice President for Worldwide Research bei IDC. Wenn dies stimmt, hofft man auf Veränderung auf Basis von Innovationskraft – bei IT-Anbietern wie deren Kunden. Doch wie steht es damit? Red Hat kommt in seinem Global Tech Outlook 2022 zu dem Schluss, dass für Unternehmen ein Mangel an Skills in der Belegschaft oder sogenannte Talent-Gaps die größte Problematik (zu 26 Prozent) der Teilnehmer als Grund dafür angegeben wird, keinen Erfolg bei der digitalen Transformation zu haben. Gleichzeitig ist Innovation die Top-Priorität für jene, die in der Umwandlung relativ weit fortgeschritten sind. Offenbar ist diese Komponente ausbaubar.
Innovation hat Top-Priorität
Innovation ist das Top-Thema bei Unternehmen in der digitalen Transformation (Grafik: Red Hat)Für IDC jedenfalls stehen systemweite Technologiewechsel an: Bis 2026 werden branchenführende Unternehmen, die im kommenden Jahrzehnt mit systemischen Technologieübergängen konfrontiert sind, ihre Ausgaben für neue IT-Umgebungen verdreifachen. Sie werden jedoch nur schwerlich die dafür nötigen 6-fachen IT-Effizienzsteigerungen erzielen. IT-Organisationen in vielen Branchen sollten jetzt darüber nachdenken, wie mehrere systemische Veränderungen (beispielsweise 5G, Elektromobilität, Blockchain) die Technologiepläne und -prioritäten ihres Unternehmens beeinflussen werden.
Bis 2023 werden 40 Prozent der G2000-Unternehmen Cloud-Auswahlprozesse neu aufsetzen, um sich stärker auf Geschäftsergebnisse (und nicht nur IT-Anforderungen) zu fokussieren. Für innovative Anbieter und innovative Technologie also ein breites Feld für bahnbrechende Entwicklungen, die es sicher im Detail auch gibt.
»Wir befinden uns in einer der interessantesten Zeiten in der Geschichte für eine Überarbeitung traditioneller IT-Prozesse«, glaubt zumindest Bruce Kornfeld, CMPO bei StorMagic.
Kurt Gerecke, für Tech Data Kurt Gerecke, Storage-Experte und -Berater für Tech Data, sagt dazu: »Fünf Innovationen haben in den letzten Jahren den Storage-Markt geprägt: Erstens die 3D-Flash-Technologie mit dem Entwicklungspotenzial in Richtung 60 und 90 TByte durch den Einsatz von 128- und bis zu 256-Layern im Chip.
Zweitens Storage-Class-Memorys kombiniert mit unterschiedlichen Technologien lassen sich hervorragend als Performance-Booster nutzen. Diese sind noch mit hohen Kosten verbunden, werden aber eine der prägenden Storage-Technologien der Zukunft werden.
Drittens: NVMe-over-Fabric gewinnt an Dynamik. Vor ein bis zwei Jahren waren die Treiberentwicklungen zu langsam und die Hypervisor und Betriebssysteme noch nicht so weit. Das sieht jetzt völlig anders aus.
Viertens: Container-Storage – Getrieben durch mobile Apps gewinnen DevOps und Micro-Services rasant an Bedeutung. Das betrifft speziell Applikationen und Datenbank-Anwendungen im Kubernetes– und OpenShift-Umfeld.
Und Fünftens: Datenmanagement, Skalierung und Datensicherheit. Viele Daten sind in unterschiedlichen Umgebungen verteilt: im Rechenzentrum sowie in hybriden und Multi-Cloud-Umgebungen. Diese Situation verlangt nach einem neuen, effektiven Datenmanagement mit entsprechender Skalierfähigkeit. Diese Anforderung wird uns die nächsten Jahre sehr stark beschäftigen. Moderne Datensicherungskonzepte sind ein absolutes Muss, gerade vor dem Hintergrund steigender Cyberattacken.«
Spielraum für Innovation in der Storage-Branche
Die Datenspeicher-Branche entwickelte in den vergangenen Jahrzehnten zahlreiche bahnbrechende Technologien, von denen viele heute noch, Jahre seitdem sie zum ersten Mal in den Markt kamen, relevant sind. So patentierte der österreichische Wissenschaftler Fritz Pfleumer 1928 das erste Magnetband. Können die vielen heutigen Ankündigungen mit diesen schritthalten? Oder sind sie nur kleinere Schritte in Richtung Optimierung.
Andrew Buss, IDCAndrew Buss, Forschungsleiter Infrastruktur und Zukunftsstrategien bei IDC, ist davon überzeugt: »Wir sind vom Band zur Platte übergegangen und nun ist die Umstellung auf den Flash-Speicher im Gang. Wir befinden uns im Frühstadium neuer Ansätze. Dazu gehören etwa persistente Intel Optane-Speicher. Wir werden sicherlich noch viele Weiterentwicklungen erleben, wie etwa holographische Speicherung, oder DNA-basierte Speicherung.«
William Toll, AcronisÄhnlich argumentiert William Toll, Produktmarketing-Leiter bei Acronis: »Es gibt immer eine fortlaufende Reihe an neuen Speicherinnovationen, von denen viele aus dem Innovationstempo der Nano-Technologien stammen, die zum Ziel haben, die Größe des physischen Speichermediums zu reduzieren. IBM, Microsoft et cetera veröffentlichen weiterhin ihre Forschungsergebnisse im Kontext von Zukunftstechnologien, die sich stark von denen unterscheiden, die momentan auf dem Markt sind. Beispielsweise Microsofts Siliziumdioxid-Projekt – die erste Speichertechnologie für die Cloud, die von Grund auf konzipiert und gestaltet wurde. Diese Technologie ist angewiesen auf ultraschnelle Laseroptik zur Speicherung von Daten in Quarzglas und wird als eine Möglichkeit angepriesen, die zu einem kompletten Umdenken des traditionellen Speichersystemdesigns führen könnte.«
Dies tangiert primär nur die Speichermedien als Basistechnologien. Geschwindigkeit und Dichte sind dort im Fokus. Nach Tapes, Disks, Flashs, NVDIMMs, Memory-Store und anderen, auf dem Weg zum Quanten-Speicher, existiert ein Innovationspotenzial auch in der Entwicklung neuer Gesamtsysteme und Konnektivitätstechniken. Sinkt also der Spielraum für Innovation? »Auf den ersten Blick scheint es so zu sein, aber Innovationen umfassen zwangsläufig nicht bloß neue Technologien, sondern in Wirklichkeit die Anwendung neuer Technologien«, antwortet dazu Randy Kerns, leitender Stratege bei der Elevator Group. Potenzial hat die Innovation in der Speicher-Welt also auf jeden Fall in Benutzer-orientierten Lösungen.
Endnutzerbedürfnisse als Triebkraft
ESG-Analytiker Scott Sinclair ist nicht der der Auffassung, dass traditionelle Technologiefunktionen revolutioniert wurden: »Man sieht keine große Vielfalt an Innovationen bei traditionellen Funktionen, wie etwa Snapshots. Dennoch bieten Speicheranbieter zahlreiche Innovationen in anderen Gebieten, wie etwa die Einbeziehung künstlicher Intelligenz. Anbieter offerieren auch Innovationen, um ihren Speichersystemen zu helfen, die Bedürfnisse des cloud-nativen oder container-basierten Arbeitsanfalls effektiver zu unterstützen. Unterm Strich sind viele Innovationen im Gang, aber nicht alle werden gegebenenfalls auf einem herkömmlichen Datenblatt erscheinen.«
Alfons Michels, Datacore Alfons Michels von DataCore unterstreicht ebenfalls, dass Innovationen stattgefunden haben, die insbesondere dem Nutzer zugutekommen: »Kompatibilität und Anwendernutzen sind die eigentlichen Innovationsfelder der Zeit. Ich sehe Technologien wie CDP, Immutable und WORM, Dedup und Kompression im Speicher selbst oder Auto-Tiering über Systemgrenzen hinweg durchaus als Innovationen der letzten Jahre. Solide Technologie aus einem Guss für die Praxis.«
Ines Wolf, Quantum »Die Speicherbranche orientiert sich natürlich an den Bedürfnissen des Marktes, sprich die Entwicklungen der Speichertechnologie bieten den Nutzern Lösungen zur Bewältigung ihrer Herausforderungen. Eine dieser Herausforderungen ist das starke Wachstum der unstrukturierten Daten«, erklärt dazu Ines Wolf, Manager Presales bei Quantum. »Des Weiteren glaube ich, dass ein nennenswerter Trend der letzten Jahre die Einführung von Public-Cloud-Services und Cloud-Dienste für Storage und Infrastruktur sowie andere IT-Services und Datenservices ist. Als weiteren Entwicklungstreiber sehe ich das Thema Ransomware.«
Innovation durch Krisen?
Hannes Heckel, Fast LTA»Sicher gehört das DNS-Speicherprojekt zu interessanten Neuerungen, hat aber noch keinen Nutzen, und das dauert wohl auch. Von diesen Innovationen gibt es sicher viele, theoretische, längst angekündigte – jedoch nur wenige, die es in die reale verbreitete Anwendung schaffen«, erklärt Hannes Heckel von FAST LTA. »Die größte Innovation – oder besser, die Sache mit dem größten Einfluss auf die Storage-Branche, ist ganz sicher Ransomware. Das hat auch das Backup komplett verändert, vom simplen B2D2T zu hochkomplexen Szenarien mit Flash und Air-Gap und Object-Store-Instanzen. Die Weiterentwicklung der Backup-Software trägt dem gottlob als Quasi-Data-Management Rechnung. Wenn man sich aber ansieht, wie sehr sich die Speicherdichte in fast allen Bereichen erhöht hat, sehe ich das schon als Innovation, auch wenn selten technische Quantensprünge dazu notwendig waren. PBytes auf wenigen Höheneinheiten speichern zu können ist schon erstaunlich.«
Ransomware und Cyber-Attacken haben zunächst nur negative Seiten. Im Sinne der Innovationsbrisanz können sie natürlich auch Entwicklungsschwerpunkte und -geschwindigkeiten vorantreiben. David Trachy, Leiter für Wachstumsmärkte bei Spectra Logic, meint, wir werden »aufgrund der zunehmenden Attacken, wie etwa Ransomware, vermutlich die bedeutendsten Innovationen bei der Software verzeichnen, insbesondere hinsichtlich des Datenschutzes.«
Wenn man von Krisen und Ransomware spricht, muss leider auch Covid genannt werden. Man kann auch wachsende Handelsbeschränkungen nennen. Dies alles läuft auf Kostenreduzierung und gesteigerte Effizienz hinaus, die sich auch in der Innovation widerspiegelt.
Alex McDonald, Vorsitzender in etlichen technischen Gruppen bei der SNIA: »Not macht erfinderisch. Benutzer sind sehr bedürfnisfreudig, und die Speicherbranche ist sehr erfinderisch. Ich denke, die Branche hat diese Kriterien im Blick, da schlussendlich alle ihre Daten schneller, billiger und umfangreicher speichern wollen. Externe Anforderungen haben im Lauf der Jahre Innovationen vorangetrieben und somit wurden Anwendungen für Pfleumers Bänder, rotierende Platten aus Eisenoxid bis hin zu persistenten Speichern aus Glas gefunden.«
Braucht es überhaupt große Innovationssprünge?
Wolfgang Bauer, Eurostor»Revolutionäre Innovationen kommen in der Regel erst Jahre später bei Mittelstandskunden an«, sagt Wolfgang Bauer, Technischer Leiter bei EUROstor. »Und das ist oft gut so: Der typische Mittelstandskunde setzt eher auf erprobte, ausgereifte Technologien. Ein typisches Beispiel ist NVMe: vor etwa zehn Jahren entwickelt, wird es erst neuerdings auf breiterer Basis eingesetzt, während es vorher nur für einige spezielle Anwendungen verwendet wurde. In der Folge kommen auch Produkte wie Tri-Mode-RAID-Controller dazu, die neben SAS und SATA auch NVMe unterstützen. In den letzten Jahren sehe ich aber keine vergleichbare Neuerung, von der ich erwarte, dass sie demnächst eine größere Rolle im breiten Storage-Markt spielen wird.«
Innovationen werden natürlich von den Entwicklern, insbesondere den R&D-Abteilungen der großen Anbieter, vorangetrieben. Dennoch müssen sich Anbieter auch an ihren Absätzen messen lassen. Tim Klein, CEO von ATTO Technologys, weist darauf hin, dass Kunden eher nicht sprunghaft investieren. »Da Zuverlässigkeit grundlegend für das Leitbild von Datenzentren ist, besteht sicherlich eine Tendenz, vertraute Technologien erst einmal beizubehalten und sie nur stufenweise zur Verbesserung immer wieder zu aktualisieren.«
Wenn die Innovation also in Schritten, Weiterentwicklungen und Aktualisierungen besteht, entspricht dies offenbar dem, was der Markt fordert. Richtig Revolutionäres mag man in der Speicherbranche seit längerem nicht gesehen haben, aber es gibt sie natürlich: Technologische Fortschritte im Speicherumfeld.
Innovationssprung durch Open-Systems
Ralf Draeger, DynamigsRalf Draeger, Technischer Leiter von dynaMigs hat dazu folgende Meinung: »Die Verlagerung der Intelligenz und Performance von der CPU in den Compiler, hierdurch wuchs die Over-All-Performance deutlich schneller als die der CPU selbst. Zusätzlich haben die Open-Source-Betriebssysteme und -Anwendungen, die Stabilität vieler Teilbereiche erhöht und die Entwicklung im Allgemeinen beschleunigt. Open-Systems erlaubte auf deutlich günstigerer Hardware, ähnliche Performance und verbreiterte somit sowohl den Einsatz als auch die Anwenderschaft (und somit die Entwicklung der benötigten Software). Novell war der damaligen NAS-Lösung von Microsoft in Punkto Rechteverwaltung und Active-Directory meilenweit überlegen. Wie bei vielen anderen Dingen wurde es von Microsoft durch die Gratiszugabe der eigenen Lösung verdrängt. Ich persönlich finde verteilte Storage-Ansätze wie Ceph sehr spannend, da sie performant große Datenmengen teilen können, ohne dass entsprechend teure Sonderlösungen benötigt werden, die außer Storage nichts weiter machen.«
Was fehle ist ein neues NAS-Protokoll, das die gegenwärtigen Herausforderungen bei unstrukturierten Daten überwindet. Hierzu zählen der Einsatz auf unterschiedlichen Betriebssystemen, implementiertes Datenmanagement (quasi ein NAS-Google zur erleichterten Suche der Daten) und effektive Anbindung über WAN.
Stefan Hirschberg, Pre-Sales-Consultant von Datadobi wirft aber ein: »Um sich durch technologische Neuerungen einen Wettbewerbsvorteil zu verschaffen. Open-Systems dagegen benötigt Standards, die oft wichtige technische Neuerungen erschweren.«
Technologische Innovation 2022 – es geht um Interconnect
Größere Innovationen in der Speicherbranche? Ja und nein. Nach unserer Ansicht liegen sie eher im Bereich der Controller und des Interconnects, von denen dann auch die Speicher-Systeme profitieren.
Auch wenn einige dieser Protokoll-Technologien nicht revolutionär erscheinen mögen, werden sie weiterentwickelt, den Markt tiefer durchdringen und neben anderen in unserem Blickfeld bleiben, auch wenn sie zunächst in Server- und erst später in Speichersystemen zum Einsatz kommen werden. Dazu zählen Technologien wie Storage-Class-Memory (SCM), Optane/3D XPoint, Akzeptanz von PCIe Gen 4 und Gen 5, Compute Express Link (CXL) 2.0, Switchless Interconnect, Entwicklung von Data Processing Units (DPUs), NVMe-oF sowie NVMe/TCP und weitere.
Storage-Class-Memory (SCM): SCM ist eine hybride Speichertechnologie, die flüchtigen Arbeitsspeicher (Memory) und persistentem Festplatten-Speicher (Storage) kombinieren möchte. SCM agiert als Zwischenschicht zwischen der DRAM- und NAND-Flash. In Bezug auf Geschwindigkeit und Kosten liegt SCM in der Mitte. Der Vorteil gegenüber DRAM ist die Persistenz, die Daten auch bei einem Stromausfall sichern kann. Auch der Verschleiß soll minimal sein.
Optane/3D XPoint: 3D XPoint ist eine nichtflüchtige Speicher-Technologie, die bedeutend geringere Latenz als NAND-Flash und höhere Überschreibbarkeit verspricht. Nach dem Ausstieg von Micron aus der Entwicklung, vermarktet Intel die Chips unter dem Namen Optane. Optane-Module werden bereits vielfach in Server und Storage verbaut. Diese Entwicklung dürfte sich 2022 fortsetzen.
PCIe Gen 4 und Gen 5: PCIe-Gen-3-NICs mit einem Datendurchsatz von 32 GByte/s werden zunehmend zum Performance-Engpass. Die Folgegenerationen verdoppeln jeweils auf 64 und 128 GByte oder 1.024 Gbit/s. Intel unterstützt beide neuen Generationen, AMD möchte nachziehen. 2022 dürfte PCIe Gen 5 zum Standard auch für Storage-Controller werden.
Compute Express Link (CXL) 2.0: Daran anschließend geht es wieder um Interconnect-Protokolle. CXL ist eine offene Schnittstelle, in Form einer Caching-Beschleuniger-Karte und basiert auf PCIe 5.0. Es soll dazu dienen, Prozessoren, Speicher und spezialisierte Chips wie FPGAs und Netzwerk-ICs mit niedriger Latenz und hoher Durchsatzrate im Server untereinander zu verbinden. Schwergewichte wie Intel, Alibaba, Cisco, Dell EMC, Facebook, Google, Hewlett Packard Enterprise (HPE), Huawei und Microsoft begründeten das Konsortium, AMD, Nvidia, ARM zogen nach. CXL 2.0 wird enormen Einfluss auf die Leistung auch von Speicher-Systemen haben, sofern sich PCIe Gen 5 weiter durchsetzt. Wie immer ist es so, dass zunächst Server, dann Storage-Controller mit der Technologie ausgestattet werden. Intel, AMD und Nvidia unterstützen CXL 2.0.
Switchless Interconnect: Herkömmliche physische Switches werden zunehmend zum Problem bei steigenden Skalierungsanforderungen. Und ein Kostenfaktor. Die Technologie kommt insbesondere in hyper-konvergenten Infrastrukturen (HCI) zum Einsatz, um virtualisierte Rechen-, Speicher- und Netzwerkfunktionen noch näher zu binden. Ziel sind also kleine bis mittlere Unternehmen, Remote-Büros/Niederlassungen (ROBO), Edge- oder IoT-Implementierungen.
Weiterentwicklung von Data Processing Units (DPUs): Auch DPUs sind nicht neu, aber sie dürften 2022 verstärkt in Storage-Systemen verbaut werden. Anbieter sind beispielsweise Nvidia/Mellanox und Fungible. Die DPU von Nvidia/Mellanox erledigt in erster Linie Netzwerk-Offloads, um die Kommunikation zwischen Initiatoren und Zielen zu beschleunigen. Die DPU von Fungible ist ein Storage-Target, die Infrastrukturdienste von x86-Prozessoren auslagert. Sie basiert auf PCIe Gen 4, und integriert Ver-/Entschlüsselung, Kompression, Dekompression und Programmierbarkeit. Sie unterstützt NVMe-oF und NVMe/TCP.
NVMe/TCP: NVMe-over-TCP wurde bereits 2019 in seinen Spezifikationen definiert. Im Herbst 2021 gaben zahlreiche Hersteller ihre Unterstützung bekannt. Eigentlich alle relevanten Anbieter bis auf IBM und HPE. Die Technologie basiert darauf, nicht-flüchtigen Speicher (Non-Volatile Memory – NVM) über eine TCP-Transportverbindung bereitzustellen. Damit bekommt NVMe-oF eine kostengünstigere Variante. NVMe-Kapazitäten werden über vorhandene TCP-/IP-Netzwerke nutzbar. Annähernd die Performance von NVMe over Fabric in einem Netzwerk, allerdings ohne zusätzliche Kosten für Infrastruktur, wie etwa dedizierte Verkabelung oder Switches. Hoher Datendurchsatz und geringe Latenz mit bestehendem Netzwerk. Das klingt verlockend.
Unsere allgemeinen Speichertrends finden sich in ausführlicher Form im im Beitrag Top-10-Storage-Trends: Mittelstand goes Transformation und im Storage-Magazin 03/2021 »Storage für den Mittelstand«.