HPC-Speicher: schnell & sicher schließen sich meist aus

Doc Storage nimmt sich in seiner Kolumne unter anderem die HPC-Studie von Hyperion Research vor. High-Performance-Computing hat aus seiner Sicht klar den Auftrag schnell zu sein.

Die von den Marktforschern geforderte Ausfallsicherheit, wäre kein Problem, wenn die Firmen genug Geld ausgeben würden. Ansonsten gehe ein Mehr an Sicherheitsmaßnahmen immer zu Lasten der Leistung.

Anzeige

Kolumne Doc Storage:

DocStorage2014 thumb

Hallo liebe Leser,

Da segnet uns eine Studie mit der Aussage, dass die Kosten für Speichersysteme negative Auswirkungen auf die Ausfallsicherheit von Hochleistungs-Rechensystemen haben. Zunächst einmal verdreht das ja nun die Realitäten der letzten Jahre, wenn nicht Jahrzehnte. Die lieben Orchideen-Informatiker in ihren Hochleistungsumgebungen haben doch immer, von Anfang an, auf höchsten Durchsatz und breiteste Verbindungen gepocht. Dass vor allem der höchste Durchsatz der natürliche Feind jeglicher Redundanz, höherwertiger Protokolle und damit eben der Ausfallsicherheit der benutzten Systeme hatte und hat, ist damit eine ganz natürliche Folge.

Jeder, der auch nur eine kurze Zeit in Speicherumgebungen produktiv zugebracht hat weiß, dass es da diesen Schieber gibt, von leistungsfähig und praktisch ohne zusätzliche Funktionen (und damit auch ohne Redundanz) rüber zu immer weniger Leistung, aber dafür mit immer mehr Funktionalitäten und Sicherheit.

Anzeige

Die befragten Gruppen scheinbar ohne Ahnung…

Naja, vielleicht liegt es auch daran, dass von den befragten Gruppen (Manager, Einkäufer, Beeinflusser und Anwender) nur einige tatsächlich einigermaßen Ahnung von dem haben, wovon sie da sprechen soll. Dass die immer nervende »digitale Transformation« (noch immer hat mir noch niemand erklärt, was der Blödsinn wirklich sein soll…) und die von Marketingfritzen weltweit nun präferierte künstliche Intelligenz (vor der schon der Kollege Weizenbaum ausreichend und wohlbegründet gewarnt hat) die Treiber der einfallslosen Industrie sind, nun ja, der eine muss ja vom anderen abschreiben.

Aber wo denn die sieben (!!!) Prozent jährlicher Steigerungsrate des globalen Hochleistungsmarktes (also für HPC-Systeme, nicht dass der Markt an sich Hochleistungen bringen würde) herkommen sollen, vor allem vor dem Hintergrund der jetzigen Situation, das muss mir erstmal einer erklären. Da war wohl eher der feuchte Wunsch einer Marketingabteilung Vater dieser lächerlichen Gedanken.

Spezialsysteme zwangsläufig komplexer zu integrieren

Die angesprochenen ungeplanten Ausfallzeiten (ich frage mich seit Jahrzehnten, ob es denn wohl auch geplante Ausfälle gibt…?) sind – einmal wieder – die Geister, die die Anwender immer schnellerer Speichersysteme mit dem Drücken des Schiebers (s.o.) in die Performance-Ecke selbst herbeigerufen haben. Und dass es eben mehr Zeit kostet, Systeme mit wenigen höheren Funktionen in die eigene Umgebung zu integrieren, wen wundert das bitte?

Zweifelhaft ist auch das in der Studie genannte Rechenbeispiel: In den befragten Firmen – mit fünf Millionen bis zehn Milliarden US-Dollar Jahresumsatz – verursacht der Stillstand eines Speichersystems, also meistens der gesamten DV, lediglich einen Schaden von einer Million US-Dollar? Eine Milliarde durch 200 Werktage ist bei mir schonmal das Fünffache. Wenn darüber hinaus die Speichersysteme (Mehrzahl…) mehrfach im Monat stillstehen, dann gehört das unheilige Gespann aus Einkäufer und Speicherfritze rausgeschmissen. Das kann passieren, darf aber nicht. Nach dem Prinzip leben wir seit Jahrzehnten, und es funktioniert. Fertig.

Hinzukommt die Forderung, die Hersteller sollten einen Nutzen über den Anschaffungspreis hinaus, Ausfallsicherheit, einen reaktionsschnellen Support und einen unterbrechungsfreien Betrieb bieten. Gibts alles, ebenfalls seit Jahrzehnten, absolut redundante und überflüssige Aussage. Kostet eben nur Geld, welches viele in ihrem Elfenbeintürmchen nicht ausgeben wollen. Aber genug aufgeregt.

Wer Garbage in die Cloud schreibt, bekommt auch Garbage zurück…

Es gibt ja noch andere, über die man sich mindestens Gedanken machen kann. Da sind die Hersteller von Backup-Lösungen in Multi-Cloud-Umgebungen (wem außer mir läuft da der kalte Schauer den Rücken runter?), der offenbar zaubern kann und die Sicherungszeiten mal eben auf ein Fünftel reduziert und die der Rücksicherung glatt drittelt. Wie das allerdings funktionieren soll, wenn die in der Wolke gelagerten Backup-Daten aus dieser herausgelesen, entpackt, ent-dedupliziert und dann wieder zurückgeschrieben werden, sagen sie niemandem.

Genauso wie es keine Auskunft gibt, wer denn Backups, die ausschließlich draußen in der Wolke liegen, auf ihre Integrität und Brauchbarkeit hin untersucht, und das regelmäßig. Und jetzt komme mir niemand mit »naja, in der Cloud werden die Daten ja dreifach gesichert.« Garbage in, Garbage out.

Ach ja, und um nochmal auf den sgTalk #05 von letzter Woche zurückzukommen – einen Preis sucht man (natürlich) mal wieder vergebens.

So, jetzt habe ich mich erstmal genug aufgeregt. Morgen sind noch mehr Artikel dran, jetzt muss ich erstmal wieder in Videokonferenzen abtauchen…

Gruß
Doc Storage

Anzeige

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.