Riesige Mengen gemischter Daten geschickt für aussagekräftige Analysen aufzubereiten, ist eine zentrale Aufgabe der Data-Warehouse-Optimierung. Dieses Whitepaper stellt einen Lösungsansatz mit Hilfe von Hadoop vor.
{download|Data Warehouse Optimierung|downloads/WP_Optimising-the-data-warehouse.pdf}
Data Warehouses kämpfen darum, mit dem Wachstum des Datenvolumens und der Vielzahl unterschiedlicher Datentypen in Unternehmen Schritt zu halten. Das Extrahieren, Transformieren und Laden (ETL) des Datenbestandes kann leicht zu größeren Streitigkeiten in Unternehmen führen, wenn sich größer werdende ETL-Zeitfenster auf das Potential, aussagekräftige Analysen auszuführen, auswirken. Neue Ansätze sind gefragt, die garantieren, dass ein Unternehmen genau die Auswertungen aus seinen Daten erhält, die es benötigt.
Dieses Whitepaper stellen eine neue Architektur mit dem Einsatz von Hadoop vor. Sie verlangt keinerlei Änderungen an bestehenden Unternehmensanwendungen, sondern verwendet nach wie vor die relationalen Daten der den Applikationen zugrunde liegenden Datenbank. Sie fügt strukturierte und unstrukturierte Daten in einem Hadoop Cluster zusammen. Aus Rohdaten werden analytische Datenmengen, auf die Analyse und Reporting zugreifen.
Dieses Whitepaper gliedert sich in folgende Kapitel:
- Ziel des Whitepapers
- Definition Big Data
- Das Thema Data Warehouse
- Ein neuer Ansatz
- Vorteile für Unternehmen
- Fazit
Laden Sie hier das kostenlose Whitepaper (PDF, englisch, 11 Seiten, 1,1 MB) herunter:
{download|Data Warehouse Optimierung|downloads/WP_Optimising-the-data-warehouse.pdf}