Top 10 der aktuellen Veränderungen in der IT

Das Gründungsteam von Pure Storage, war von 10 Jahren überzeugt, dass die damals üblichen Storage-Systeme zu langsam, zu komplex und zu fehleranfällig waren. Auch heute sind die meisten Storage-Produkte noch dadurch eingeschränkt, dass sie ursprünglich für Mainframe- oder Client-Server-Computing und für mechanische Geräte entwickelt wurden – und nicht für die Hybrid-Cloud und Flash. 

Die folgende Top-10-Liste der derzeit grundlegendsten Veränderungen in der IT sollten Unternehmen nach Meinung von Pure Storage bei ihrer Planung für das nächste Jahrzehnt berücksichtigen:

Anzeige

Nr. 10 – Künstliche Intelligenz

Mit Deep Learning schreiben sich Programme aus sorgfältig gepflegten Datensätzen selbst. Der daraus resultierende, arbiträr hochentwickelte Musterabgleich ist ein leistungsstarkes neues Werkzeug im Toolkit für vorausschauende Analysen. Derartige neuronale Netzwerke handeln bereits mit Aktien, finden Fehler in Software, steigern die Erträge im Agrarsektor und verbessern die medizinische Diagnose. Deep Learning erfordert jedoch auf Speicherseite große Bandbreite, hohe Parallelität sowie einfache und flexible Skalierung. Aus diesem Grund unterstützen leistungsfähige Datei- und Objektspeicher-Plattformen heute einige der größten KI-Infrastrukturen der Welt, oft in Partnerschaft mit NVIDIA. Künstliche Intelligenz steuert automatisierte Cloud-Management-Plattformen.

Nr. 9 – Cloud

Öffentliche und private Clouds und Rechenzentren werden in einem Multi-Cloud-Ansatz zusammengeführt und bieten ein zuvor unerreichtes Maß an Service-Levels und Wirtschaftlichkeit. Cloud-ähnliche Automatisierungs-, Management- und Nutzungserfahrungen halten Einzug in das Rechenzentrum, damit Unternehmen geschäftskritische Anwendungen schnell und kostengünstig skalieren und gleichzeitig Innovationen im Datenbereich tätigen konnten. Leistungsstarker Blockspeicher auf Flash in der Public Cloud bietet eine Verfügbarkeit und Zuverlässigkeit auf Enterprise-Niveau. Für viele Workloads kann sich Cloud-Blockspeicher sogar selbst amortisieren, da der Overhead von RAID – im Vergleich zur Spiegelung – deutlich geringer ist. Generelles Ziel sollte es sein, sowohl die Rechenzentren von Unternehmen in die Cloud zu bringen als auch die Cloud mehr an die Unternehmen anzupassen.

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.

Nr. 8 – Disaggregation von Compute und Storage

In der Anfangszeit der Cloud wurden Festplatten innerhalb des Servergehäuses zusammengelegt (DAS-Modell). Mit der Skalierung von Computern und Netzwerken geriet Shared Storage, insbesondere aufgrund der Einschränkungen von mechanischen Festplatten, in Verzug. Durch die heutigen Innovationen in der Cloud-Architektur und durch die Innovationen von Unternehmen wie Pure ersetzt der dedizierte vernetzte Speicher in Kombination mit Flash-Storage erneut das DAS-Modell, wie bereits zuvor bei den Mainframe- und Client-Server-Generationen. Durch die Disaggregation von Compute und Storage können alle Elemente einzeln skaliert und aktualisiert werden. Mit ihrer sich ständig weiterentwickelnden Mischung aus traditioneller CPU (für Modellausführung, Datenaufnahme/-ausgang und Transformation) und hochparalleler Verarbeitung (GPU oder gleichwertig für Modelltraining) ist die künstliche Intelligenz zum Vorzeigeobjekt der Disaggregation geworden.

Anzeige

Nr. 7 – Schnelle lokale Netzwerke

Durchgängige NVMe-Unterstützung nutzt alle Vorteile der schnellen Vernetzung. Im Vergleich zu DAS ist der vielleicht größte Vorteil von NVMe over Fabrics, dass durch das Auslagern der Speicherverarbeitung von Hosts mehr CPU-Leistung für Anwendungen genutzt werden kann, wodurch die eingeschränkte Serverebene deutlich effizienter wird. Darüber hinaus kann sich vernetzter Storage über komplexere Datenservices, wie konsistente Snapshots und Replikationsgruppen, bei niedrigeren Kosten – durch höhere Auslastung, bessere Komprimierung, breitere Deduplizierung und Ersetzen von Spiegelung durch RAID – mehr als amortisieren.

Nr. 6 – Edge Computing

Während lokale Netzwerke deutlich schneller geworden sind, konnten WANs (Wide Area Networks) nicht Schritt halten. So wie die Cloud die Konsolidierung von Rechenzentren vorantreibt, bringt das enorme Wachstum der Daten bei einem langsameren Wachstum der WAN-Kapazität mehr Rechenleistung und Storage an die Grenzen des Möglichen. Nach Angaben von Cisco werden im nächsten Jahr weltweit etwa 50 Zettabytes (ZBs) an neuen Daten produziert. Dies sind etwa zwanzig Mal mehr Daten, als das Internet verarbeiten kann. Die zunehmende „Schwere“ der Daten wird dazu führen, dass die meisten in der Cloud erzeugten Daten auch dortbleiben. Außerdem werden die meisten peripher erzeugten Daten auch peripher bleiben, und nur Teile der Datensätze können in die Cloud gesendet werden. Die gemeinsame Verarbeitung durch Cloud-Rechenzentren sowie dezentrale oder lokale Rechenzentren wird daher auf absehbare Zeit die Regel sein. Erfolgreiche Storage-Plattformen werden den Datenaustausch in Hybrid-Clouds erleichtern.

Nr. 5 – Flash und Moores Gesetz

Flash bietet einen zehnfachen Vorteil in Bezug auf Zuverlässigkeit, Energieeffizienz, Dichte und Performance gegenüber mechanischen Festplatten. Schlussendlich dürfte Flash sogar mit den Kosten für Bandspeicherung konkurrieren, die möglicherweise sogar länger in Rechenzentren eingesetzt werden könnte als Festplatten. Entscheidend für den Durchbruch von Flash ist Software, die von Anfang an dafür entwickelt wurde, die Vorteile der größeren Parallelität in jedem Flash-Gerät zu nutzen. NVMe-Flash-Module und die Umstellung des Flash-Managements auf eine Software, die global und nicht innerhalb jedes SSD arbeitet, ist hier der richtige Weg. Dies sorgt nachweislich für höhere Parallelität, niedrigere Latenz, konsistentere Performance sowie höhere Zuverlässigkeit bei niedrigeren Kosten durch die Beseitigung des 20- bis 30-prozentigen Over-Provisioning bei herkömmlichen SSDs. Durch diese Innovationen werden neue Medien – NVMe, TLC und QLC – sowie zukünftige Innovationen viel schneller aufgegriffen, indem Kapazität und Dichte erhöht und gleichzeitig die Kosten weiter gesenkt wurden.

Nr. 4 – Hochverfügbarkeit ohne Serviceunterbrechung

Zeitgemäße Software und Hardware von Flash-Arrays wird unterbrechungsfrei gewartet und aktualisiert. Unternehmen müssen ihre Daten nicht für Wartungsfenster offline nehmen. Ausfallzeiten sollten mit der Betriebszeit verrechnet werden, denn was nützt eine Verfügbarkeit von 99,9999 Prozent, wenn ein Anbieter mehrstündige Wartungsfenster einfordern kann? Entscheidend für diese Servicequalität ist Cloud-Automatisierung, die die Komplexität der Verwaltung von PBs an Storage im zwei- und dreistelligen Bereich drastisch reduziert. Vorausschauende Analysen und KI aus Telemetriedaten können Probleme noch vor ihrem Auftreten korrelieren, antizipieren und beheben. Kunden können einen solchen selbstoptimierenden, verwalteten Service innerhalb ihres eigenen Rechenzentrums nutzen, wenngleich ohne ihre Zustimmung keine Konfigurationsänderungen vorgenommen werden.

Nr. 3 – Evergreen-Abonnements

Software-as-a-Service und die Public Cloud sind natürlich die Dauerbrenner. Sofern der Kunde sein Abonnement aufrechterhält, ist der Anbieter für die Aktualisierung von Hardware und Software, für das Hinzufügen neuer Funktionen und für die Performancesteigerung verantwortlich – und all das muss ohne Serviceunterbrechung erfolgen. Lokale Infrastrukturen werden in der Zukunft ebensolche Dauerbrenner sein wie die Cloud und SaaS heute. Storage-Anbieter müssen die Investitionen der Kunden schützen und dauerhaft auf Zukunftskompatibilität achten, damit die Kunden nie wieder mit steigenden Wartungskosten für veraltete Technologien konfrontiert werden. Kunden sollten nicht im Jahresabstand die gleiche Technologie erneut kaufen und ihre Daten migrieren müssen. Schließlich sollte die Speicherung den Daten untergeordnet sein und nicht umgekehrt. Das Evergreen-Modell umfasst neue Software und neue Hardware, und das alles zu geringen und fairen Abonnementgebühren.

Nr. 2 – Autonome Vorgänge

Im 21. Jahrhundert sollte kein Kunde mehr Technologien erwerben müssen, die nur mithilfe von Handbüchern beherrscht werden können. Die Public Cloud hat die Messlatte für die Komplexitätstoleranz von Unternehmen in den eigenen Rechenzentren zu Recht höher gelegt. Diese Komplexität ist nicht nur ein Hindernis für Innovationen und sorgt für zusätzliche Kosten. Vielmehr führt sie zu Unsicherheiten und zu unbeabsichtigten Folgen. Die Zukunft gehört daher nicht mehr den endlosen Konfigurationsmöglichkeiten und Drehknöpfen, sondern den transparenten Fähigkeiten, die sich an den Anforderungen des Unternehmens orientieren. Diese Einfachheit muss von Anfang an entwickelt und mit zunehmendem Ausbau der Plattform beibehalten werden.

Nr. 1 – Zeitgemäße Datennutzungserfahrung

Die von den Anwendungen genutzten Datenmengen werden immer größer. Dadurch wird das Speichern mehrerer Kopien für verschiedene Anwendungen sehr teuer. Da Unternehmen zudem immer mehr in Echtzeit arbeiten, müssen sie auf die aktuellsten Daten zugreifen und nicht auf eine möglicherweise veraltete Kopie. Letztendlich wenden sich Unternehmen von veralteten Storage-Lösungen ab, bei denen zahlreiche Spezialgeräte Kopien von Daten und Datensilos erstellen. Sie lehnen eine übermäßige Systemkomplexität und technische Sackgassen ab, die die Modernisierung der Dateninfrastruktur behindern. Der moderne Storage-Ansatz verwandelt fragmentierte und veraltete Datenspeicher in ein einheitliches, automatisiertes Multi-Cloud-Datendienstprogramm. Diese Lösungen müssen schnell, flexibel, vielseitig und einfach zu bedienen sein und eine einheitliche Nutzererfahrung bieten, unabhängig davon, wo und wie Daten verwendet werden. Eine zeitgemäße Datennutzungserfahrung erfordert eine moderne Storage-Plattform und ein Storage-as-a-Service-Modell, damit Unternehmen ihre Daten voll ausschöpfen und gleichzeitig die Komplexität und den Aufwand für die Verwaltung der Infrastruktur reduzieren können.

„Der Schwerpunkt im Rechenzentrum verlagert sich auf Daten, und Unternehmen benötigen dringend eine wesentlich effektivere Datenplattform, insbesondere für vorausschauende Analysen einschließlich KI und Deep Learning“, fasst Güner Aksoy, Director für Zentraleuropa, abschließend zusammen.

www.purestorage.com/de/

 

 

Anzeige

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.