Die 2010er: Ein Storage-Jahrzehnt im Rückblick

Technologisch standen wir 2010 noch in einem anderen Zeitalter. Heute nutzen wir TByte-SSDs, damals kamen sie erst auf den Markt – in kaum nutzbaren Kapazitäten. Wir freuten uns über die ersten 3-TByte-HDDs und virtualisierte Rechenzentren, und Cloud-Dienste waren längst keine Selbstverständlichkeit.

Die 2010er: Ein Storage-Jahrzehnt im RückblickDie 2010er: Ein Storage-Jahrzehnt im RückblickNachdem nun ein neues Jahrzehnt beginnt, wollen wir einen Blick zurückwerfen: Unsere Rechenzentren sind heute komplett durchvirtualisiert und Cloud-Dienste in diversen Ausführungen ebenso eine Selbstverständlichkeit, wie TByte-SSDs für knapp 100 Euro. Vor zehn Jahren war das noch ganz anders.

Anzeige

An das Jahr 2010 knüpften sich einige Hoffnungen, nachdem die Vorjahre geschäftlich eher schlecht liefen, sollte im Anfang des letzten Jahrzehnts vieles besser werden. Für die IT-Abteilungen galt aber auch damals schon, mit weniger mehr erreichen.

Storage 2010 – USB 3.0, SSDs und Smartphones standen noch am Anfang

Technologisch war im Januar 2010 USB 3.0 noch etwas Besonderes für uns. Auch fabulierten wir darüber, dass die Mobile-Generation künftig einen Online-Speicher benötigen werde. Aus heutiger Sicht sehr putzig, der geschätzte Kollege Engelbert Hörmannsdorfer schrieb: »Der Siegeszug von PDAs, mit denen sich auch telefonieren lässt – wie dem Apple »iPhone« – ist nicht mehr aufzuhalten.« Der Begriff Smartphone war vor zehn Jahren noch nicht geläufig.

iSCSI war bereits eingeführt, aber erst mit 10-Gbit-Ethernet begann die Trennung zwischen LAN (Ethernet) und SAN (FC) zu bröckeln. Zudem erwarteten wir, dass sich Flash-Disks ganz klar zum Tier-0-Speicher entwickeln würden. Grundsätzlich galten SSDs aber noch als relativ neu. Die speicherguide.de-Redaktion startete damals einen Selbstversuch. Jeder im Team bekam für seinen Rechner eine SSD und schrieb seine Erfahrungen nieder. Heute kaum vorstellbar, aber damals sorgte dies für Gesprächsstoff.

Anzeige

Die Virtualisierung startete gerade so richtig durch. Cloud-Computing galt noch als Trend, der nicht über einige wenige SaaS-Ansätze hinausging und noch zu viel Wolke war. Dafür verwendeten wir bereits den Begriff »Digitaler Schatten«, »viele wissen, was Du gestern getan hast«.

Die Datenflut warf ihre Schatten voraus, wie auch Storage als Mietmodell (Storage-on-Demand). Die Blu-ray sahen wir als letztes optisches Speichermedium. Der Trend ging in Richtung USB-Stick. Bei den Festplatten erreichte die Kapazität ein neues Level: Drei Jahre nach den 3,5-Zoll-HDDs erreichten nun auch 2,5-Zoll-Platten die 1-TByte-Mark. Die Hersteller benötigten dafür eine Bauhöhe von 12,5 Millimeter.

Zwei hochkarätige Übernahmen ließen den Storage-Markt aufhorchen. HP gab damals die unfassbare Summe von 2,35 Milliarden US-Dollar für 3PAR aus. Das war umso bemerkenswerter, denn außerhalb den USA kannten das Unternehmen nur wenige. Zudem setzte es lediglich 194 Millionen US-Dollar und galt seit seiner Gründung 1999 als nicht profitabel. Wir folgerten damals: »Erhoffte Gewinne im Cloud-Business rechtfertigen momentan scheinbar jede Investition.« Mit 2,25 Milliarden US-Dollar ließ sich aber auch EMC die Übernahme des Scale-Out-NAS-Spezialisten Isilon Systems einiges kosten. Zudem übernahm Sabine Bendiek als Geschäftsführerin die Leitung von EMC.

Storage 2011: Das Jahr der Naturkatastrophen

Die Vorzeichen für das IT-Jahr 2011 waren eigentlich gut. Von einer möglichen Wirtschaftskrise und Rettungspaketen für Griechenland & Co war noch nicht die Rede. Thailand war als schönes Urlaubsland bekannt und nicht als das Herz der Festplattenindustrie. Aus technologischer Sicht galten erneut Cloud und Virtualisierung als die vorherrschenden Themen.

Zudem sollte es das Jahr der SSD werden. Zum Jahreswechsel etabliert sich 120/128 GByte als Einstiegsgröße. Wir erlebten 2011 die erste 3-TByte-Festplatte und die Mac-Welt bekam mit Thunderbolt die damals ultimativ schnellste Speicherschnittstelle. Das Hype-Thema Cloud erhielt Gesellschaft in Form von »Big Data«.

In Erinnerung bleiben aber vor allem zwei Naturkatastrophen: Zuerst versetzt ein Erdbeben in Japan die ITK-Branche in Aufregung, dann schwemmt das Hochwasser in Thailand ein Drittel des HDD-Marktes hinfort. Dies führte zu massiven Lieferengpässen. Für Festplatten musste man schlagartig den doppelten und dreifachen Preis bezahlen. Unabhängig von dieser Entwicklung ordnete sich der HDD-Markt neu: Western Digital kaufte Hitachi GST für 4,3 Milliarden US-Dollar und Seagate die HDD-Sparte von Samsung für 1,35 Milliarden US-Dollar.

Erwähnenswert: Für die IT-Welt begann am 30. November 2011 eine neue Ära: Speichernetzte kamen im Consumer-Markt an. Aldi stieg in den NAS-Markt ein und bot zum damaligen Kampfpreis die Netzwerkplatte Medion Life P89626 mit 1,5 TByte an, die reißenden Absatz fand.

Datacore stellte mit SANsymphony-V eine SAN-übergreifende Speichervirtualisierungs-Plattform vor. Was wir damals noch als Storage-Hypervisor bezeichneten, kennen wir heute als Software-defined Storage.

Storage 2012 – IT und Daten werden mobil

Technologisch bezeichneten wir 2012 als ein Übergangsjahr. Die Naturkatastrophen und ihre Auswirkungen bestimmten weite Teile des Jahres. Eine schwache Börse und eine ungewisse Wirtschaftslage taten ihr Übriges. In Unternehmen wurde erstmals so richtig darüber nachgedacht, die IT und Geschäftsprozesse noch tiefer miteinander zu verzahnen.

Cloud und Big Data wurden bereits zuvor diskutiert. Mit »Bring Your Own Device« (BYOD) kam nun ein weiteres Thema hinzu. Hand in Hand mit neuen Sicherheitsfragen.

Storage 2013 – schneller, sicherer, mobiler

Die Herausforderungen lauteten im Jahr 2013: anspruchsvolle Anwendungen, ein weiteres Datenwachstum und die zunehmende hohe Mobilität der Nutzer zu beherrschen. Das wesentliche Neue daran war, die Masse an Informationen, die es sinnvoll zu nutzen galt. Wir sprachen erstmals so richtig von (Echtzeit-)Analyse. Dies rückte die Anwendungen mehr in den Mittelpunkt. Das bewährte Prinzip, Performance, Kapazität und Datendurchsatz durch das Aufstocken der vorhandenen Hardware zu erhöhen, wird zunehmend in Frage gestellt.

Storage 2014/2015 – mehr Software, Services und Wolken

Flash, Software und Cloud bestimmten die IT-Jahre Mitte der 2010er, bis heute. Als Trends hatten wir sie bereits diskutiert, nun wurden Lösungen, die bis dato als zu teuer oder nicht ausgereift galten, immer mehr zur bezahlbaren Realität. Selbst der Mittelstand musste nicht mehr von Wolken, Flexibilität und Ausfallsicherheit träumen. Die Digitalisierung bzw. digitale Transformation nahmen ihren Lauf…

Nicht zuletzt durch die Veröffentlichung der Snowden-Files und den damit aufgedeckten NSA-Aktivitäten, steigt die Bedeutung von Verschlüsselungs-Technologien. Auch Cybersicherheit nannten wir als einen der Top-Trends der Jahre 2014/2015.

2015 endete mit einem Paukenschlag und einer Neuordnung des Storage-Segments: Dell übernimmt EMC für insgesamt 67 Milliarden US-Dollar. Über einen möglichen Kauf von EMC wurde zwar immer mal wieder spekuliert, aber so richtig daran geglaubt haben nur wenige. Dementsprechend überwogen die Zweifel und Kritiker sprachen von einer ähnlich sinnlosen Elefantenhochzeit wie einst HP und Compaq. Aus heutiger Sicht muss man sagen: Dell EMC hat es seinen Kritikern gezeigt. Vor allem hierzulande ging der Zusammenschluss weit reibungsloser vonstatten, als erwartet.

Storage 2016-2019 – geprägt von Digitalisierung, Next-Gen-Datacenter und Datenschutz

Die zweite Hälfte der 2010er standen dann ganz klar im Zeichen der digitalen Transformation. Wir schrieben über das Next-Generation-Datacenter und mit Ransomware-Attacken bekam die Cybersicherheit einen ganz neuen Stellenwert. Firmen stehen nahezu unter Dauerbeschuss. Die Herausforderungen sind immens und das Gefahrenpotenzial enorm. Ein Trend, der sich seit Jahren nahtlos fortsetzt und den wir auch in die 2020er mitnehmen. Cyberkriminelle sind KMUs weit voraus…

Technologisch ist vor allem NVMe(-oF) zu erwähnen und auch Converged- und hyperkonvergente Systeme haben sich weiterentwickelt.

2018 wird uns immer an die DSGVO (Datenschutz-Grundverordnung) erinnern. Der Datenschutz erhielt damit einen neuen Stellenwert, inklusive Datensicherheit, Zugriffschutz und Datenverfügbarkeit. Diese (Groß-)Baustelle begleitet IT-Abteilungen für eine lange, lange Zeit…

Storage in den neuen 20er Jahren

In die neuen 20er Jahre nehmen wir, unter anderem die nächsten Generationen intelligenter SSDs mit, wie »Computational Storage« bzw. »Smart SSD«. NVMe-over-Fabric begleitet uns zwar schon eine Weile, in der Praxis werden wir die Technologie aber erst jetzt so richtig sehen.

Hochverfügbarkeit und Business-Continuity waren natürlich schon immer wichtig, aber auch hier sehen wir für beides künftig einen noch höheren Stellenwert. Ohne Internet- und Datenzugriff geht auch in kleineren Firmen häufig nichts mehr.

Aufgrund des Datenwachstum benötigen wir neue Konzepte für die Datensicherheit, Datenwiederherstellung und für das Datenmanagement. Das sichere Abspeichern und Aufbewahren ist nur die Pflicht und das Nutzen der vielen Informationen ist mehr als nur eine Kür.

Rückblickend schreiben wir seit unseren Anfangszeiten über dieses Datenwachstum und wir werden dies auch in den 2020er nahtlos so fortführen. Bisher hat es aber genügt, die Informationen zu speichern und in irgendeiner Form aufzubewahren. Nun kommen aber immer mehr Informationen aus unterschiedlichsten Quellen hinzu, die es nun nicht nur zu speichern, sondern auch auszuwerten gilt.

Aus Storage-Sicht sprechen wir derzeit unter anderem von File- und Object-Diensten, die uns Flexibilität, Skalierbarkeit sowie eine globale Datenverwaltbarkeit geben sollen. Hier erwarten wir uns einiges an Neuentwicklungen. In zehn Jahren denken wir bestimmt, »jessas, wir hatten ja damals gar nichts«. Und dabei haben wir künstliche Intelligenz (KI), Machine-Learning, IoT und hybride Multi-Clouds noch gar nicht erwähnt…

In punkto Speicherkapazität geht es steil nach oben: Aktuell stehen wir bei 16 TByte und im Laufe des Jahres kommen HDDs mit 20 TByte auf den Markt. Ab 2025 sollten wir die ersten Festplatten mit 100 TByte erleben. Aus heutiger Sicht erscheint es logisch, dass wir bis 2030 auch die 200 TByte pro Platte erreichen. Parallel benötigen wir aber auch neue Schnittstellen und Bus-Systeme, um die hohe Datenmenge mit dem entsprechenden Durchsatz zu begleiten.

Anzeige

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.