Sensordatenverarbeitung

Edge und Cloud Computing: Better together

Gemeinschaftskraftwerk Hannover (GKH)

Moderne Anlagen sind gespickt mit Sensoren. Die Übertragung der anfallenden Daten in die Cloud ist jedoch oft problembehaftet. Um weniger, aber dafür relevantere Daten zu übertragen, ist eine Kombination aus Edge und Cloud Computing die Lösung.

Um drohende Ausfälle von Maschinen frühzeitig zu erkennen, überwachen Sensoren fortlaufend Produktions- und Versorgungsanlagen. Besonders bei Anlagen systemkritischer Infrastrukturen wie zum Beispiel Kraftwerken wird „Real-Time Sensor Monitoring“ eingesetzt, um drohende Störungen schnell zu erkennen. Bei zunehmend höheren Abtastraten messen Sensoren Parameter wie Temperatur, Druck, Bewegungen oder Feuchtigkeit. Dabei fallen aufgrund der häufigen Abtastungen enorme Datenmengen an, die hohe Rechenkapazitäten und Netzwerk-Bandbreiten erfordern. Doch nicht immer und überall stehen diese Kapazitäten zur Verfügung.

Anzeige

Um dieses Problem anzugehen, ist ein Paradigmenwechsel nötig: Anstatt pauschal alle Daten in die Cloud zu übertragen und erst dort auszuwerten, können die Daten direkt an der Datenquelle, der so genannten Edge „gefiltert“ werden: Unauffällige Daten werden hier aussortiert. Nur solche Daten, die einen Hinweis auf Anomalien enthalten könnten und einer eingehenden Prüfung bedürfen, kommen in die Cloud. Qualität statt Quantität ist das Leitprinzip, um Daten-Transportwege zu reduzieren.

KI hält Einzug ins Real-Time-Sensor-Monitoring

Modellbasierte Entscheidungssysteme, die mit Künstlicher Intelligenz (KI) und Machine Learning (ML) arbeiten, helfen, die Sensordaten in unterschiedlichsten Einsatzgebieten effizient auszuwerten. So lernen die Systeme kontinuierlich aus den Daten, wenden die Erkenntnisse direkt vor Ort an und passen ihr Verhalten an. Das ist ein deutlicher Fortschritt: Bislang erfolgte die Verarbeitung häufig nur auf simple Weise durch lokale Regelkreisläufe. Diese können lediglich auf kurzfristige Ereignisse reagieren, ohne langfristige Trends und wiederkehrende Muster zu erkennen.

Für die effektive Überwachung systemkritischer Infrastrukturen müssen Sensordaten im Kontext zu anderen Daten betrachtet werden. Je nach Anwendung dürfen Sensordaten also nicht isoliert ausgewertet, sondern müssen mit anderen relevanten Ereignissen und Informationen verknüpft werden. Dazu kann es sinnvoll sein, die gewonnenen Daten auch langfristig zu speichern und auszuwerten, was oft an ungenügenden Speicher- und Rechenkapazitäten scheitert.

Anzeige

Gaskraftwerke profitieren von Kombination aus Edge und Cloud

Ein Beispiel für die Anwendung der Sensorüberwachung sind Gaskraftwerke. Sie können schnell hoch- unter runtergefahren werden, um natürliche Schwankungen bei der Stromerzeugung aus erneuerbaren Energien auszugleichen. Diese Anlagen sind weltweit verteilt und vielerorts fehlt es an schnellen Netzanbindungen, die für die Übertragung großer Datenmengen in die Cloud nötig wären.

Die Lösung ist eine Kombination aus Edge und Cloud Computing: Sensordaten werden lokal an der Edge ausgewertet und ermöglichen so eine effiziente und sichere Steuerung der Systeme in Echtzeit. Gleichzeitig können die in der Cloud zusammengeführten Daten aus verschiedenen Standorten langfristig analysiert werden, um Trends zu erkennen und Basismodelle zu entwickeln. Diese Modelle sind auf lange Sicht stabil und müssen nur in regelmäßigen Abständen aktualisiert werden.

Dabei besteht die Herausforderung darin, die Nutzung von Edge und Cloud gut auszutarieren: Einerseits soll die Abhängigkeit von der Cloud reduziert werden. Andererseits ist die Cloud der unverzichtbare Ort, an dem Sensordaten aus geografisch unterschiedlichen Standorten zusammenlaufen und ausgewertet werden, um langfristige Trends im Betrieb zu erkennen und Basismodelle zu bilden. Auch nutzen Machine-Learning-Anwendungen die Cloud als zentralen Verarbeitungsort, was nicht immer ideal ist – viel Datenverkehr, Latenzprobleme und hoher Energieverbrauch sind die Folge.

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.

Datenverarbeitung an der Edge entlastet die Cloud

Um den Datenverkehr zu verringern und die zu übertragende Datenmenge zu reduzieren, eignet sich ein Konzept namens „Federated Dataset Distillation“. Dieser Ansatz sieht vor, Teile der globalen Datenauswertung direkt an die lokalen Geräte vor Ort, also an der Edge, auszulagern. Dabei könnten große Datenmengen an der Edge komprimiert werden, bevor sie in die Cloud übertragen werden. Dadurch würde sich der Übertragungsbedarf erheblich reduzieren, während die Daten weiterhin für das Training von Machine-Learning-Modellen nutzbar bleiben. Auch komplexe KI-Modelle könnten ressourceneffizient in der Cloud trainiert werden.

Dieser Ansatz zielt darauf ab, die vorhandenen Rechenkapazitäten effizienter zu nutzen und die Abhängigkeit von der Cloud zu verringern. Aktuell ist jedoch noch zu erforschen, wie echte Sensordaten mit dieser Methode an der Edge verlustbehaftet komprimiert werden können, bevor sie in die Cloud übertragen werden. Sollte dies gelingen, könnte die Datenkomprimierung – genau wie die Vorfilterung – den Übertragungsbedarf weiter reduzieren.

Typischerweise erfolgt heute das Training von Vorhersage-Modellen zentral in der Cloud. Künftig könnte das Training der KI-Modelle jedoch auch direkt an der Edge stattfinden, indem die Sensordaten dort vorverarbeitet werden. Mithilfe der „Federated Dataset Distillation“ ließen sich zudem große historische Datenmengen komprimieren, um sie verlustarm für das zentrale Training in die Cloud zu übertragen.

Das SensE-Projekt: Sensor on the Edge

Das Kooperationsprojekt „SensE“der IFTA Ingenieurbüro für Thermoakustik GmbH und der TU München, zeigt, wie Edge und Cloud Computing in der Praxis kombiniert werden können: mit neuen, modernen und leistungsfähigen Generationen von eingebetteten Systemen, die wenig Platz und Energie benötigen.

Für das von der Bayerischen Forschungsstiftung (BFS) geförderte Projekt analysierten die Entwickler Sensordaten in einem Gaskraftwerk mit zwei Turbinen. Durch eine permanente Überwachung der thermoakustischen Schwingungen sollte das System Abweichungen vom optimalen Betriebsbereich frühzeitig registrieren. Für einen möglichst effizienten Edge-Betrieb untersuchten die Forscher verschiedene Rechnerarchitekturen und analysierten unterschiedliche Prozessormodelle und Machine-Learning-Algorithmen.

Der Demonstrator registriert Störungen Tage im Voraus

Ein erster Prototyp – der Demonstrator – fokussierte zunächst auf die Datenverarbeitung an der Edge. Gleichzeitig integrierten die Entwickler wichtige Funktionen, wie die Kompression, Filterung und Modellierung der Daten. Ein Leistungsmodell half dabei, den Ressourcenbedarf der Edge-Systeme besser zu verstehen und darauf aufbauend weitere Optimierungen vorzunehmen.

Im nächsten Schritt wurde der Demonstrator erweitert, um die Zusammenarbeit zwischen Edge- und Cloudsystemen zu ermöglichen. Die Entwickler bauten dafür ein Testsystem im Labor und integrierten Datenmodelle, um die Datendurchsätze zwischen Edge und Cloud zu optimieren.

In der letzten Projektphase wurde zusätzliche Hardware direkt im Kraftwerk installiert. Diese befähigte den Demonstrator, Anomaliekennwerte je nach Anlagenzustand zu berechnen und mögliche Probleme vorherzusagen. Der Demonstrator kann so potenzielle Schäden mehrere Tage im Voraus erkennen, bevor diese überhaupt eintreten.

“The best of both worlds“: Der Schlüssel ist die smarte Kombination der Ressourcen

Der hybride Ansatz zur Nutzung von Edge und Cloud kombiniert die Vorteile beider Verarbeitungsorte bestmöglich. Gefragt sind Systeme, die skalierbares und in Echtzeit nutzbares Training von KI-Modellen zur Erkennung von drohenden Ausfällen ermöglichen. Um das ressourcenschonend zu erreichen, müssen alle dafür nötigen Rechenoperationen flexibel und effizient zwischen Edge und Cloud aufgeteilt werden. So entwickelt sich die Sensordatenverarbeitung von einer passiven, lokalen Edge-Lösung hin zu einer dynamischen, kollaborativen Architektur weiter. Besonders in datenintensiven industriellen Anwendungen wie Gaskraftwerken wird die Bedeutung von Edge- und Cloudsystemen mit voranschreitender Energiewende zunehmen und den entscheidenden Unterschied für einen störungsfreien Betrieb machen.

Was ist Real-Time Sensor Monitoring?

Sensordaten in Echtzeit überwachen: Real-Time Sensor Monitoring ermöglicht Unternehmen, kritische Parameter von Maschinen und Gebäudetechnik kontinuierlich zu überwachen. Vernetzte Sensoren erfassen dabei permanent Messwerte wie Temperatur, Vibration oder Druck und übermitteln diese zur sofortigen Analyse.
Die intelligenten Monitoring-Systeme erkennen automatisch Abweichungen vom Normalzustand und alarmieren bei Überschreitung definierter Schwellenwerte. Dies ermöglicht vorausschauende Wartung (Predictive Maintenance): Statt starrer Wartungsintervalle können Unternehmen durch die kontinuierliche Analyse der Sensordaten Verschleiß frühzeitig erkennen und ihre Instandhaltung bedarfsgerecht planen.

Was ist Federated Dataset Distillation?

Datensätze intelligent komprimieren: Bei der Federated Dataset Distillation werden große verteilte Datensätze für das KI-Training intelligent komprimiert. Statt kompletter Modellparameter wird nur ein verdichteter „Destillat-Datensatz“ zwischen den Systemen ausgetauscht.
Dabei trainieren die Teilnehmer zunächst lokale KI-Modelle und destillieren daraus einen kleinen synthetischen Datensatz mit den wichtigsten Eigenschaften. Dieser ermöglicht ein zentrales Training bei deutlich reduziertem Ressourcenbedarf. Ein zusätzlicher Vorteil: Sensible Originaldaten bleiben lokal gespeichert.

Roman Karlstetter

Dr. rer. nat. Roman

Karlstetter

Technical Lead Software

IFTA Ingenieurbüro für Thermoakustik GmbH

Dr. Roman Karlstetter ist Technical Lead Software bei der IFTA Ingenieurbüro für Thermoakustik GmbH, wo er seit 2013 tätig ist. Nach seinem Bachelor- und Masterstudium an der Technischen Universität München (TUM) widmete er sich seiner Promotion. Sein Forschungsschwerpunkt lag auf der effizienten Verarbeitung und langfristigen Speicherung von Sensordaten im
Prof. Carsten Trinitis

Prof. Dr.-Ing. Carsten

Trinitis

TU München, Campus Heilbronn

Prof. Carsten Trinitis ist seit 2021 Professor für Rechnerarchitektur und Betriebssysteme an der Technischen Universität München am Campus Heilbronn. Seine Forschung umfasst Mikroprozessorarchitekturen, hardware-orientierte Optimierungen in der Raumfahrt, rechenintensive Codes sowie die Simulation elektrostatischer Felder.
Anzeige

Artikel zu diesem Thema

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.