Predictive Maintenance, Smart Analytics, Künstliche Intelligenz – viele Technologien des digitalen Zeitalters speisen sich aus großen Datenmassen. Nicht selten werden diese damit zum Dreh- und Angelpunkt des digitalen Unternehmens. Doch wer ohne solides Konzept mit dem Datensammeln beginnt, läuft schnell Gefahr, in der Big-Data-Flut unterzugehen.
Um tatsächlich von den großen Datenmengen zu profitieren, muss von Anfang an Klarheit bestehen über das Wie und Wozu.
Das Herzblut der heutigen Digitalisierungsszenarien sind Daten. Während eine umfängliche Erfassung und Speicherung in der Vergangenheit oft lediglich Mittel zum Zweck für Dokumentationen und Reportings war, rücken heute mehr und mehr komplexe Analysen und Korrelationen in den Fokus, welche es erlauben, statistische Zusammenhänge aufzudecken, die andernfalls mit hoher Wahrscheinlichkeit unentdeckt geblieben wären. Möglich wird dies durch die großen Datenmengen vernetzter Maschinen oder digitaler Geschäftsprozessketten. Entsprechend gilt „Big Data“ oft als Basis, wenn es darum geht, das eigene Unternehmen mit smarten Technologien wie Industrie 4.0 für die digitale Zukunft fit zu machen.
Doch allein zu messen, was sich messen lässt, und zu sammeln, was sich sammeln lässt, garantiert noch längst keinen Digitalisierungserfolg. Ohne konkretes Ziel lässt sich nur schwer ein konkreter Nutzen erreichen. Um tatsächlich von den großen Datenmengen zu profitieren, benötigen Unternehmen daher ein stimmiges Big-Data-Konzept – und müssen sich bereits im Vorfeld Gedanken machen zu Verarbeitung, Nutzung und Verwendungsszenarien der Datenmassen.
Über Wasser halten
Oft sind Unternehmen etwa mit smarten Produktionsmaschinen versucht, alle Daten, die messbar sind, auch tatsächlich zu erfassen. Selbst wenn diese aktuell noch gar nicht für Auswertungen genutzt werden. Schließlich könnte sich dies in der Zukunft ändern – dann käme dem Unternehmen ein bereits bestehender Datenpool zugute. Werden Daten jedoch unabhängig von ihrer aktuellen Relevanz erfasst und mit derselben Priorität verarbeitet, kann dies schnell zu einer Überlastung der vorhandenen Ressourcen führen.
In der Praxis empfiehlt sich daher eine Vorkategorisierung der eingehenden Datenströme, etwa durch die Unterscheidung von „Hot Data“ und „Cold Data“. Beide Arten werden mit unterschiedlicher Priorität behandelt und weiterverarbeitet. Unter Hot Data fallen Daten, welche unmittelbar für Folgeaktionen relevant sein können, beispielsweise die Betriebstemperatur einer Maschinenkomponente. Erreicht diese zu hohe Werte, besteht die Gefahr einer Überhitzung. Informationen wie diese müssen quasi in Echtzeit ausgewertet werden, um eine Beschädigung der Anlage zu verhindern.
Anders bei Cold Data: Hier handelt es sich um Daten, welche keine unmittelbare zeitkritische Relevanz besitzen, sondern beispielsweise für Auswertungen oder nachträgliche Analysen von Bedeutung sind. Hierunter fallen etwa Informationen zu produzierten Mengen, Verbrauch oder Betriebsdauer, auf die dann bei Bedarf zurückgegriffen wird.
Eine solche Vorselektion beziehungsweise Priorisierung der Daten lässt sich unter anderem mithilfe von Softwarelösungen bewerkstelligen, die eingehende Datenströme nach ihrer Relevanz kategorisieren und entsprechend weitergeben. Auf diese Weise lassen sich die vorhandenen Ressourcen besser einteilen und darauf fokussieren, genau diejenigen Daten zu analysieren, die auch wirklich unmittelbar analysiert werden müssen.
Aus Daten Informationen machen
Für sich allein genommen sind die erfassten Daten oft nicht aussagekräftig genug, um unmittelbar im Geschäftskontext verwendet zu werden und beispielsweise Folgeprozesse automatisiert auszulösen – und damit für die gewünschten Effizienzgewinne im digitalen Unternehmen zu sorgen. In vielen Fällen ist es erst der richtige Kontext, der Daten Aussagekraft verleiht und sie zu nutzbaren Informationen macht.
Deutet etwa die Analyse der eingehenden Datenströme einer Maschine darauf hin, dass eines der Bauteile mit hoher Wahrscheinlichkeit in den nächsten Tagen oder Wochen ausfallen wird („Predictive Maintenance“), lassen sich notwendige Gegenmaßnahmen nur dann effizient ergreifen, wenn das Analyseergebnis automatisiert mit relevanten Kontextinformationen in Verbindung gebracht wird: Um welchen Maschinentyp handelt es sich genau? Wie sieht die bisherige Wartungshistorie der Anlage aus? Welche Materialien werden für die Reparatur benötigt?
Sind diese Kontextinformationen bekannt, lässt sich automatisiert ermitteln, welcher Wartungstechniker über die notwendigen Kompetenzen für den Service-Einsatz verfügt und darüber hinaus laut seinem Einsatzplan freie Kapazitäten besitzt. Sind weitere Informationen zum Bauteil vorhanden, können Unterlagen und Dokumentationen zur Fehlerbehebung bereitgestellt werden. Im Lager lässt sich automatisiert die Verfügbarkeit des Ersatzteils prüfen und bei Bedarf dessen Bestellung in Auftrag geben, sodass alle benötigten Materialien zum Wartungstermin vorliegen.
Muss dieser Kontext aufwendig von Hand recherchiert werden, schmälert dies den Nutzen der digitalen Technologie. Für automatisierte Prozesse müssen die weiterführenden Informationen unmittelbar zur Verfügung stehen. Bewerkstelligen lässt sich dies beispielsweise durch die Verknüpfung der smarten Technologie mit dem im Einsatz befindlichen ERP-System. Auf diese Weise können die Daten mit den dort hinterlegten Stammdaten in Verbindung gebracht werden – und so unmittelbar in die Geschäftsprozesse des Unternehmens eingebettet werden.
Über die eigenen Prozesse hinausdenken
Technologien wie Predictive Maintenance zielen in erster Linie auf eine Optimierung der eigenen Prozesse ab: Durch das vorausschauende Ermitteln von potenziellen Fehlerquellen wird der eigene Service verbessert, die Produktivität der verkauften Maschinen erhöht und die Kundenzufriedenheit gesteigert. Doch damit ist das Potenzial der großen Datenmengen längst nicht ausgeschöpft.
Abgesehen von der Big-Data-Nutzung zur Verbesserung der eigenen Prozesse besteht beispielsweise auch die Möglichkeit, den Endkunden selbst Zugriff auf die gesammelten Datenmengen zu gewähren. So lassen sich diese etwa in Form eines smarten Informationsdienstes bereitstellen, der sich zur Maschine hinzubuchen lässt und damit den Leistungsumfang rund um die Anlage erweitert.
Ein weiterer Service für den Kunden bestünde im Bereitstellen von Konfigurationsempfehlungen oder konkreten Handlungsanweisungen auf Basis der Daten. Durch die anonymisierte, kundenübergreifende Analyse der Daten eines bestimmten Maschinentyps können Hersteller beispielsweise ermitteln, dass unter bestimmten Voraussetzungen eine Anpassung des Parameters A zu einer Produktivitätssteigerung um X Prozent führt. Mit entsprechenden Handlungsempfehlungen für Kunden mit ähnlichen Voraussetzungen wird der Anbieter vom reinen Lieferanten zum unterstützenden Beratungspartner.
Durch Service-Ansätze wie diese wird es Unternehmen möglich, ihr bisheriges Leistungsportfolio zu ihren Produkten um neue, smarte Dienstleistungen auf Basis der großen Datenmengen zu erweitern – und damit völlig neue Geschäftsmodelle im digitalen Zeitalter für sich zu erschließen.
Mit Big Data zur Zukunftsfähigkeit
Wer in der heutigen Zeit von smarter Technologie profitieren will, kommt meist nicht länger ohne die Bewältigung von großen Datenmengen aus. Um dabei jedoch nicht von der Datenflut fortgespült zu werden, ist ein geeignetes Big-Data-Konzept unerlässlich. Schaffen Unternehmen von Anfang an Klarheit bezüglich Verarbeitung, Nutzung und Verwendungsszenarien der Datenmassen, können sie durch deren Analyse nicht nur im Bezug auf die Effizienz der eigenen Prozesse profitieren, sondern investieren gleichzeitig in die Zukunftsfähigkeit ihrer Geschäftsmodelle.
Christian Leopoldseder, Managing Director Austria bei Asseco Solutions