Künstliche Intelligenz (KI) und maschinelles Lernen (ML) sind für Fabriken von erheblichem Nutzen. Es gibt jedoch nach wie vor Herausforderungen. Diese liegen normalerweise nicht in der Datenwissenschaft – denn der Code funktioniert in der Regel gut.
Bei der Umsetzung von KI/ML-Projekten in großem Maßstab liegen die Herausforderungen vorwiegend in der Architektur und Datenverwaltung.
Hersteller müssen einen effizienten und kostengünstigen Weg finden, um Daten zu sammeln, zu verstehen, zu nutzen und dann über mehrere Projekte hinweg wiederzuverwenden. Soufiane Ameziane, Area Vice President Germany bei Teradata, stellt vier Prinzipien vor, wie Unternehmen ihre IT-Architektur durch intelligentes Data Mesh ausbauen können, um Industrie 4.0-Projekte erfolgreich umsetzen können.
Pilotprojekte scheitern oft anfangs an Skalierungsproblemen und Herausforderungen bezüglich der Anwendungsfälle. Unternehmen nutzen veraltete Architekturen für Industrie 4.0-Lösungen, was zu isolierten Anwendungen und hohen Kosten führt. Dadurch bleiben erfolgreiche Projekte selten, und zusätzliche Anwendungsfälle sind oft nicht machbar aufgrund begrenzter Budgets. Bei Projekten in der Praxis ist eine effiziente Nutzung von Daten und Data-Science-Fähigkeiten entscheidend. Sensordaten von Maschinen können zum Beispiel für verschiedene Zwecke genutzt werden, erfordern aber spezifisches Fachwissen. Daher ist es effizienter, Daten einmalig für alle Anwendungsfälle zu sammeln, aufzubereiten und zu nutzen.Hier kommen die vier Grundsätze des intelligenten Data Mesh ins Spiel. Sie tragen dazu bei, begrenzte Ressourcen besser zu nutzen, zum Beispiel durch einen Mehrzweckansatz für die Datenbereinigung.
1. Datenverantwortlichkeit je nach Domäne
Wenn die Verantwortlichkeit für Daten je nach Domäne an die jeweiligen Experten verteilt wird, stellt man sicher, dass die Personen, welche kontextbezogene Daten wirklich verstehen, auch die Verantwortung für die Aufbereitung dieser Daten für verschiedene Anwendungsfälle tragen. Da OT und IT in einem Fertigungsunternehmen traditionell getrennt sind, sollte sich das Prinzip der Verantwortlichkeit relativ leicht umsetzen lassen.
2. Daten wie Produkte behandeln
Zweitens müssen Daten wie Produkte behandelt werden. Bei Datenprodukten kann es sich um einfache Datensätze handeln, die für Analysezwecke aufbereitet werden, oder um komplexere Produkte wie beispielsweise Ergebnisse von ML-Routinen.
Diese beiden Grundsätze erfordern keine spezielle Technologie, sondern sind in erster Linie organisatorischer Art. Unterschiedliche Gruppen müssen die Verantwortung für einen bestimmten Datensatz übernehmen und sicherstellen, dass letzterer allen autorisierten Benutzern zur Verfügung steht. So senken Unternehmen zusätzlich Kosten und erhöhen die Sicherheit, da Datenbewegungen und Redundanzen reduziert werden.
3. Self-Serve Dateninfrastruktur
Drittens muss eine Self-Service-Dateninfrastruktur als Plattform implementiert werden. Dies ist von entscheidender Bedeutung, damit eine Vielzahl von Teams auf der Arbeit anderer aufbauen, eigene Erkenntnisse aus Daten gewinnen und zusätzliche Datenprodukte erstellen kann.
4. Federal Computational Governance
Und letztendlich erfordert die auf mehrere Bereiche verteilte computergestützte Verantwortlichkeit, eine Mischung aus Netzwerk-orientierter Governance-Praxis und der Möglichkeit, einige Aufgaben wie die Schema- oder Lineage-Erstellung zu automatisieren.
Die letzten beiden Prinzipien setzen einige technische Fähigkeiten oder Tools voraus. Unternehmen brauchen deshalb verlässliche Anwendungen und Plattformen, um Daten zu finden, zu verstehen, zu nutzen und wiederzuverwenden – unabhängig davon, wo sie gespeichert sind. So können sie auch die Struktur eines Data Mesh problemlos implementieren. Anstatt Daten zu hohen Kosten zu verschieben, kann so ein offenes Datenökosystem implementiert und die Daten mit Analysen versehen werden.
Dieses offene Ökosystem wird den Herstellern auch dabei helfen, bei ihren Industrie 4.0-Analyseprojekten das Ideal von „gut, schnell und günstig“ zu erreichen:
- Gut: Verbesserter Einsatz von Anwendungsfällen auf der Grundlage vertrauenswürdiger und sicherer Daten.
- Schnell: Schneller Einsatz von Anwendungsfällen und deren Ausführung.
- Günstig: Begrenzung von Datenbewegungen und Redundanzen, Verbesserung der Recheneffizienz.
Fertigungsbetriebe, die sowohl von IT als auch von OT unterstützt werden, sind bereits nah dran, die Prinzipien des Data Mesh umzusetzen. Um das volle Potenzial von KI und ML in einer Fabrikumgebung auszuschöpfen, sind nur kleine Anpassungen erforderlich: Die nächsten Schritte wären hier Daten-Governance-Praktiken zur Anpassung der Verantwortlichkeitsverhältnisse und zur Einführung von Datenprodukten, gekoppelt mit hochskalierbarer Rechenleistung, die in der Lage ist, in einem vielfältigen Datenökosystem effizient zu arbeiten.