Big Data Trends 2014

Pentaho, CEO Quentin Gallivan, über die Big Data Trends in 2014.

Trend Nr. 1: Geschäftsanwender wollen Data Blending

Letztes Jahr habe ich die Vorhersage gewagt, dass 2013 das Jahr wird, in dem Big Data Analyse Mainstream wird. Eine kürzlich veröffentlichte Auftragsstudie von EMA bestätigt dies. Was mich dabei allerdings erstaunt hat, ist der große Anteil den die starke Nachfrage von Geschäftsanwendern an Data Blending (Anmerkung: Logische Verknüpfung verschiedener Datenquellen) an diesem Wachstum hat. Ich gehe davon aus, dass sich der Data Blending Trend auch in 2014 weiter fortsetzen wird.

Kunden wie Andrea Dommers-Nilgen von TravelTainment und Andrew Robbins von Paytronix, die kürzlich auf Veranstaltungen in London und New York über ihre Pentaho Projekte gesprochen haben, sind beide Geschäftsanwender und erreichen die Ziele für ihre Unternehmen durch die Verknüpfung von Big Data mit relationalen Daten. Geschäftsanwender wie sie, erkennen das Potential von Data Blending, wie eine 360-Grad-Kundensicht, inklusive der Fähigkeit, Kundenverhalten zu analysieren und zu prognostizieren, beispielsweise welche Kunden auf gezielte Angebote ansprechen.

Trend Nr. 2: Funktionierendes Zusammenspiel von Big Data Technologien

Bisher war es üblich, dass Big Data Projekte aufgrund des notwendigen technischen Know-hows und der stetig wachsenden Zahl an neuen Technologien, mit denen die Big Data Referenzarchitekturen erstellt werden, vor allem in den IT Abteilungen angesiedelt waren. Kunden müssen sich zwischen einer Vielfalt an Big Data Angeboten, kommerziellen und Open Source Lösungen wie Hadoop Distributionen, NoSQL Datenbanken, hochperformanten Datenbanken, Analyseplattformen, anderen Werkzeugen und Plug-Ins entscheiden. Sie müssen dabei aber auch berücksichtigen, wie die existierende Infrastruktur, z.B. relationale Datenbanken oder das klassische Datawarehouse, in die Informationsarchitektur passen.

Der Vorteil dieser Wahlfreiheit, die aus der Vielzahl der Angebote resultiert, ist, dass nach Jahren der beherrschenden Stellung und resultierender Abhängigkeit von Anbietern proprietärer Software in 2014 mehr Nachfragekraft zu den Endkunden wandert. Damit gehen aber auch Herausforderungen einher, da das Management einer heterogenen Big Data Analyse Umgebung nicht immer einfach ist. Die IT Abteilungen brauchen daher neue Werkzeuge, die dabei helfen, diese komplexen Referenzarchitekturen zu implementieren und zu warten. Die Anbieter von Big Data Lösungen müssen alle an einem Strang ziehen und an der Kompatibilität ihrer Technologien arbeiten. Schließlich ist es vor allem die Fähigkeit, auf Informationen von verschiedenen Quellen zuzugreifen und diese zu managen, die den Mehrwert von Big Data Analysen bringen wird.

Trend Nr. 3: noch mehr Innovation aus der Big Data Open Source Community

Neue Open Source Projekte wie Hadoop 2.0 und YARN, der Hadoop Ressourcen Manager, werden die Hadoop Infrastruktur interaktiver machen. Neue Open Source Projekte wie STORM, ein Streaming Kommunikationsprotokoll, schaffen gute Bedingungen für Echzeit Data Blending in einer Big Data Umgebung.

Seitdem wir 2010 die industrieweit ersten nativen Hadoop Konnektoren angekündigt haben, verfolgen wir das Ziel, den Übergang zu einer Big Data Architektur einfacher und risikofreier zu machen. In 2013 haben wir hier vor allem mit unserer adaptiven Big Data Ebene gute Fortschritte gemacht. Sie gibt IT Abteilungen die Sicherheit, dass ihre Referenzarchitekturen zukunftssicher sind und bietet allen Anwendern, ob nun Geschäftsanwender, Datenanalysten, Marketingverantwortliche oder Leiter von Geschäftsbereichen, Zugang zu Big Data Lösungen.

Zu guter Letzt: Mit den Technologien von Gestern lässt sich schlecht die Zukunft vorbereiten

Wir wollen auch weiterhin an unserer Plattform arbeiten, um für die Zukunft von Business Analytics gerüstet zu sein. In 2014 werden wir neue Funktionalitäten, Aktualisierungen und Plug-Ins veröffentlichen, die es erlauben sogar noch einfacher und schneller relationale und Big Data Datenbestände zu bearbeiten, zu verknüpfen und zu analysieren. In Planung ist bereits die Verbesserung der adaptiven Big Data Ebene, damit die Verwaltung des Datenflusses noch einfacher und sicherer wird. Bei der Datenanalyse wollen wir die direkte Datenermittlung vereinfachen, sodass es für Geschäftsanwender einfacher wird, Muster zu erkennen und Abweichungen zu entdecken. Wir werden auch in Zukunft in Pentaho Labs mit frühen Anwendern zusammenarbeiten, um neue Technologien wie prognostische Analyse, Maschinendaten und Echtzeitanalyse in das Hauptprodukt zu bringen.

Wenn Geschäftsanwender auch weiterhin die Möglichkeiten, die Data Blending bietet, erkennen, werden wir in 2014 spannende Entwicklungen und Ergebnisse zu Gesicht bekommen. Ich freue mich drauf.


Sie wollen noch mehr zum Thema Big Data erfahren?

Lesen Sie doch unser White Paper zum Thema:

Neue Architekturen für Big Data
Das Whitepaper "Architected Blended Big Data" beschäftigt sich mit der Kombination von Big Data mit anderen relevanten Unternehmensdaten. Erst die Analyse kombinierter Daten aus unterschiedlichen Quellen führt zu maximalem Nutzen aus Big Data.

Hier geht's zum Whitepaper...


Newsletter

NewsletterLesen Sie kostenlos Fachartikel, Analysen und White Paper. Jederzeit mit einem Klick abzubestellen.

- 2 Ausgaben it management gratis dazu -

Newsletter anfordern

 
 

Aktuelle Meldungen

  • Computent vereinfacht Fernzugriff mit Computent Secure +

    Verbindungssoftware auf Rechnern ersetzt USB-Stick.| Komfortabel für Mitarbeiter mit Firmen-Notebook. Weiterlesen...
  • Unify: OpenScape Business X1 Appliance jetzt verfügbar +

    Erweitertes Businessportfolio mit leistungsfähigen, einfachen Lösungen aus einer Hand – Speziell für kleine und mittelgroße Unternehmen. Weiterlesen...
  • arcplan rät zu mehr Übersichtlichkeit +

    arcplan erläutert drei Grundregeln wie aussagekräftige Berichte und Dashboards. Weiterlesen...
  • Palo Alto Networks warnt vor zunehmender Anzahl von Use-after-free-Bugs +

    Use-after-free-Bugs setzen seit Jahren dem Internet Explorer zu, warnen die Forscher von Palo Alto Networks. Weiterlesen...
  • CyberArk stellt Best-Practice-Leitfaden für die Sicherung privilegierter Accounts vor +

    Viele Insider- und Cyber-Angriffe der jüngsten Vergangenheit haben ganz klar gezeigt, dass privilegierte Accounts eine zentrale Schwachstelle der IT sind.  Weiterlesen...
  • Hohe Softwarequalität erfordert zentrales Testmanagement +

    Entwicklungsprojekte werden hinsichtlich Umfang und Komplexität immer anspruchsvoller.  Weiterlesen...
  • A10 Networks integriert DDoS-Schutz in seine netzwerkfähigen Carrier-Grade-Produkte +

    Schützt IPv4- und IPv6-Adresspools, beugt Angriffen von außen vor und hält gefährdete interne Ressourcen davon ab, Netzwerkdienste zu beeinträchtigen. Weiterlesen...
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22

White Paper zum Download

  • 1
  • 2
  • 3