Die Digitalisierung schreitet unaufhaltsam voran. Unternehmen sind dadurch zunehmend abhängiger von einem schnellen und unkomplizierten Zugriff auf geschäftsrelevante Daten. Datenvirtualisierung hilft ihnen dabei, auch in fragmentierten hybriden Infrastrukturen die Kontrolle zu behalten, erklärt Thomas Niewel von Denodo.
Die Datenmengen, die sich in Unternehmen ansammeln, werden immer größer und unübersichtlicher. Es handelt sich dabei um unterschiedlichste Datenformate, die an verschiedenen Orten gespeichert sind. Dabei ist es für Unternehmen so wichtig wie nie, sich unverzüglich Zugriff auf relevante Daten verschaffen zu können. Kein Wunder also, dass immer mehr Firmen in allen vertikalen Märkten Datenvirtualisierung als fundamentalen Bestandteil ihrer IT-Infrastruktur implementieren.
Die Evolution: Data Warehouse, logisches Data Warehouse, Datenvirtualisierung
Vor zehn Jahren wurde der Begriff des logischen Data Warehouse von Gartner eingeführt. Dabei ging es um die Notwendigkeit, existierende Data Warehouse Architekturen logisch zu erweitern. Sie sollten weitere Daten enthalten – vornehmlich aus Data Lakes und ODS Systemen – was sie bis dahin nicht taten.
Zwar handelt es sich dabei um eine leistungsfähige und flexible Architektur, doch es ist mit einem Fischglas vergleichbar. Außerhalb davon befindet sich die große weite Welt und zahlreiche weitere Fischgläser. Und genau diese Welt müssen Unternehmen heute erschließen.
Daher geht die Datenvirtualisierung noch einen Schritt weiter und funktioniert als einheitliche Bereitstellungsplattform für alle Unternehmensdaten. Sie erschließt nicht nur Daten eines logischen Data Warehouse, sondern integriert zudem auch Data Marketplaces, Streaming-Daten und jedes andere System, das Daten generiert. So lassen sich Datensilos auflösen und flexiblere Anwendungsszenarien ermöglichen.
Schlüsselaspekte der Datenvirtualisierung
Der wichtigste Aspekt der Datenvirtualisierung ist ihre Fähigkeit, den Standort und die Implementierung von Daten zu abstrahieren und die Geschwindigkeit der Datenbereitstellung zu erhöhen, da es nicht nötig ist, die Daten zu replizieren. Nutzer haben die Möglichkeit, quasi per Selbstbedienung auf Daten zuzugreifen.
Diese Abstraktion lockert die bislang starke Verknüpfung zwischen IT und Business auf. Einerseits stellt Sie den Nutzern ein stabiles und verständliches Datenmodell bereit, welches die Nutzer über Standardmethoden – wie SQL oder einer REST API – erreichen können. Andererseits ermöglicht Sie der IT das jeweils passendste und innovativste Data Management System für die Daten bzw. für den Anwendungsfall zu verwenden.
Dadurch werden Silos beseitigt und die Nutzer können mit den Anwendungen ihrer Wahl auf Daten zugreifen, egal, ob es sich dabei um Reporting- oder Data-Science-Tools, um Unternehmensanwendungen, mobile oder Webanwendungen handelt.
Drei Architekturen, eine Bereitstellungsplattform
Datenvirtualisierung bildet also das Rückgrat einer einheitlichen Datenbereitstellungsplattform, die maßgeblich zur Modernisierung der ihr zugrunde liegenden Datenlandschaft beiträgt. Eine derartige Plattform entfaltet in zahlreichen Architekturen positive Effekte, die in Zukunft eine immer wichtigere Rolle spielen werden.
Datendienst-Ebenen aktivieren
Ein Beispiel ist der Einsatz von Datenvirtualisierung als Datendienst-Ebene. In diesem Szenario gibt die Datenvirtualisierung zertifizierte Datendienste aus, die von jedem Entwicklerteam genutzt werden können. Dadurch umgeht man das Problem, dass Projektteams eigene Silo-Datensätze erstellen oder nicht zertifizierte oder nicht gepflegte Datenquellen verwenden.
Eine Datendienst-Ebene ermöglicht keinen direkten Zugriff auf die Datenquellen. Stattdessen werden konsistente Datensätze ausgegeben und durch den Einsatz von Datenvirtualisierung auffindbar gemacht. So können sämtliche Entwickler auf die Daten zuzugreifen und sie wiederverwenden, egal, ob es dabei um operative Anwendungen, Webportale oder Back- und Front-Office-Systeme geht.
Cloud-Modernisierung beschleunigen
Wer damit beginnt, Cloud-Anwendungen zu benutzen und Legacy-Anwendungen in die Cloud zu migrieren, steht vor einem längerfristigen Projekt – und dabei besteht eine hohe Wahrscheinlichkeit, dass Daten stark fragmentiert werden. In der entstehenden Hybrid-Architektur verteilen sich Daten über Speicherplätze vor Ort und in der Cloud. Eine weitere Herausforderung besteht darin, Anwendungen über verschiedene Cloud-Plattform-Provider hinweg zu integrieren. Dabei gilt es, einen zentralen Zugriffspunkt für die gesamte Architektur zu etablieren und darüber hinaus für das nötige Maß an Sicherheit zu sorgen.
Die Abstraktionsmöglichkeiten mithilfe von Datenvirtualisierung vereinfachen den Weg in die Cloud: Datenvirtualisierung erleichtert die Migration der Legacy-Architektur in die Cloud und im Anschluss die Entwicklung der migrierten Legacy-Architektur zu moderneren Cloud-Analytics-Plattformen. So können Nutzer am Ende mehrere Analyseplattformen in der Cloud nutzen und ohne Probleme auf Daten in hybriden Architekturen zugreifen.
Arbeit mit Big Data vereinfachen
Datenvirtualisierung kann Unternehmen zudem auch bei der Erfassung großer Datenmengen unterstützen, indem sie den Zugriff auf Daten, die sich auf großen Datenplattformen befinden, erheblich vereinfacht: Datenvirtualisierung macht große Datenmengen für Nutzer ohne Kenntnisse im Big-Data-Bereich verfügbar, indem sie logische Data Lakes und ein leicht zugängliches und auffindbares logisches Modell bereitstellt.
Die Technologie ermöglicht die Auslagerung historischer Daten aus teurer Data-Warehouse-Infrastruktur auf kostengünstigeren Speicher, zum Beispiel Hadoop, und erlaubt dabei den nahtlosen Zugriff auf aktuelle und historische Daten. Darüber hinaus erlaubt sie die Anreicherung von Big Data mit anderen Daten, beispielsweise durch die Kombination von Predictive Analytics Output mit kontextabhängigen Unternehmensdaten.
Raus aus dem Fischglas
Die drei Beispiele zeigen, wie Datenvirtualisierung in unterschiedlichen Architekturen als einheitlicher Mechanismus für die Datenbereitstellung fungiert. Die Technologie vereinfacht den Zugriff auf fragmentierte Daten, die Modernisierung der IT-Infrastruktur und die Kontrolle über Big Data. Damit bietet Datenvirtualisierung ein Leistungsspektrum, auf das heute kein Unternehmen mehr verzichten kann und das weit über die Möglichkeiten des logischen Data Warehouse hinausgeht.