Enterprise Applications sind das Herz der Unternehmens-IT. Sie bilden die wichtigen Geschäftsprozesse ab, sammeln dafür geschäftskritische Daten und werten diese aus. Priorität hat daher die Sicherheit und Integrität der Daten.
Diese dürfen beim Speichern, Archivieren und Transport zwischen den Systemen für Enterprise Resource Planning (ERP), Customer Relationship Management (CRM), Contract Lifecycle Management (CLM) oder Product Information Management (PIM) nicht verloren gehen. Deshalb müssen Unternehmensanwendungen hochverfügbar sein. Um die hohen Qualitätsansprüche von Enterprise Applications an das Datenmanagement zu gewährleisten, fordern viele Hersteller eine Zertifizierung von Storage-Lösungen für diesen Anwendungsfall. Aktuelle Entwicklungen erhöhen zudem die Anforderungen, um Enterprise Apps schnell den nötigen Datenzugriff zu verschaffen.
Enterprise Applications verlagern sich in die Cloud
So sind heute IoT und Big Data eines der relevanten Themen im Bereich der Enterprise Applications. Um das Potenzial von IoT-Projekten bestmöglich auszuschöpfen, dürfen Unternehmen sie nicht in Silos betreiben. Vielmehr gilt es, IoT/Big Data und Enterprise Applications zu verbinden, sodass Sensordaten mit wichtigen Unternehmensdaten verknüpft werden können. Der Einsatz von IoT, Big Data Analytics und künstlicher Intelligenz treibt das Datenwachstum weiter rasant an, was sich mit klassischen On-Premises-Umgebungen nicht mehr auffangen lässt. So hat sich für IoT-Szenarien bewährt, den Datenfluss über Edge Computing und Cloud-Speicher zu steuern. Insgesamt zeichnet sich ab, dass IT-Landschaften größer, vielfältiger und vernetzter werden.
Hinter dieser Entwicklung stecken für die Analysten von IDC zwei konkrete Cloud-Trends, die sich gegenseitig bedingen. Zum einen sehen die Experten ein schrittweises Verlagern der Enterprise Apps in die digitale Wolke. Ihre Prognose lautet: Bis 2021 werden 70 Prozent der Enterprise Applications nativ für die Cloud entwickelt. Bei Herstellern lässt sich bereits das Umschwenken auf eine Cloud-First-Strategie erkennen. Beispielsweise verfolgt SAP diesen Ansatz. So bietet der Konzern viele Produkte und neue Features nur noch in der Cloud an. Für die „in der Cloud geborenen“ Anwendungen bilden Microservices jeweils eine bestimmte Funktion ab. Diese Microservices sind lose miteinander gekoppelt und lassen sich auf unterschiedlichen Servern sowie an verschiedenen Standorten betreiben. Wo diese laufen werden, beantwortet die zweite IDC-Vorhersage: 90 Prozent der weltweit agierenden Unternehmen werden bis 2024 eine Multi-Cloud-Management-Strategie haben. Dabei wird das bevorzugte Modell die hybride Multi Cloud sein, also eine Mischung aus verschiedenen Public Cloud Services, Private Clouds und lokalen Systemen. Denn in dieser Konstellation können sich Unternehmen für jeden Anwendungsfall die jeweils beste Lösung heraussuchen.
Mit dem Data-Fabric-Ansatz verteilte Infrastrukturen einheitlich managen
In naher Zukunft werden sich daher Enterprise Applications auf verschiedene Systeme in einer hybriden Landschaft verteilen. Dadurch wird es noch herausfordernder, die Anwendungen miteinander zu verbinden und für einen sicheren, schnellen Datentransport zwischen ihnen zu sorgen. Diese Herausforderung lässt sich mit einer Data-Fabric-Strategie lösen, weshalb Gartner dieses Konzept auch als einen der wichtigsten Technologie-Trends für 2019 identifizierte. Der Ansatz vereinheitlicht das Datenmanagement und sorgt für einen nahtlosen Datentransfer zwischen Daten On-Premises, in der Private Cloud oder in Public Cloud Services. Auch in einer heterogenen IT-Landschaft stehen Daten damit jederzeit dort in der geforderten Geschwindigkeit zur Verfügung, wo sie gebraucht werden – unabhängig davon, wo sie herkommen. Eine Data Fabric befähigt dazu, Workloads problemlos von einem Public Cloud Provider zu einem anderen zu verschieben.
Bereits seit einigen Jahren bietet NetApp das Data-Fabric-Konzept an, das im Zusammenspiel mit den Cloud-Connected-Flash-Lösungen seine volle Wirkung entfaltet: Unternehmen, die Enterprise Apps und andere Services aus der Cloud nutzen, erhalten einfache Bedienbarkeit, Hochverfügbarkeit, Agilität und hohe Performance. In dem Kontext spielt der Faktor Zeit eine wichtige Rolle, was sich anhand der Situation von SAP-Anwendern zeigen lässt. Bei ihnen entscheidet das schnelle Umsetzen von Innovationen über die eigene Wettbewerbsfähigkeit. Das nötige Aufsetzen von SAP-Test- und Entwicklungssystemen dauert üblicherweise jedoch mehrere Tage. Zunächst fertigt man dafür ein Backup an, spielt es zurück und modifiziert das System. So entsteht eine Kopie, mit der die Entwickler arbeiten können. Mit automatisiertem Cloning lassen sich Testumgebungen dagegen auf Knopfdruck innerhalb von Minuten bereitstellen. Dank des Data-Fabric-Konzepts sind Unternehmen dabei flexibel über die Cloud-Grenzen hinweg. Sie können ein SAP-System zum Beispiel in AWS klonen und in weniger als zehn Minuten in Azure zur Verfügung stellen.
Vorausschauend vorbereiten
Ob nun für ERP, CRM oder CLM: Enterprise Applications bilden heute und künftig die Basis für die zentralen Geschäftsprozesse. Allerdings werden die geschäftskritischen Anwendungen Schritt für Schritt stärker als bisher in hybriden Multi-Cloud-Umgebungen gehostet. In den so entstehenden verteilten Infrastrukturen müssen die Enterprise Apps weiterhin hochverfügbar, sicher und performant laufen. Diese hohen Anforderungen lassen sich mit dem Data-Fabric-Konzept erfüllen. Denn es befähigt zu einem einheitlichen, flexiblen, konsistenten und hocheffizienten Datenmanagement über die verschiedenen vernetzten Umgebungen hinweg: vom eigenen Rechenzentrum über Edge-Computing-Systeme bis hin zu den unterschiedlichen Cloud-Plattformen. Auf diese sich abzeichnende Entwicklung sollten sich Unternehmen bereits heute einstellen.