Die Verantwortung von Unternehmen endet keineswegs an den physischen Grenzen des Betriebsgeländes. Nach der Erweiterung zum deutschen Lieferkettengesetz im Januar 2024 steht jetzt die nächste Neuerung an.
Die EU hat sich im März auf eine deutlich strengere Lieferketten-Gesetzgebung geeinigt. Größere Unternehmen müssen einen Plan erstellen, der die Vereinbarkeit ihres Geschäftsmodells und ihrer Strategie mit dem Pariser Abkommen zum Klimawandel sicherstellt. Künftig tragen sie dabei die Verantwortung für ihre gesamte Geschäftskette.
Der Aufwand auf Unternehmensseite ist erheblich und die neuen Gesetze bergen zahlreiche Herausforderungen – Unternehmer haben zwei Jahre Zeit, um sich an das Gesetz mitsamt den gestiegenen Anforderungen anzupassen. Die neue EU-Regulierung verpflichtet Unternehmen zu umfangreichen ESG- (Environmental, Social und Governance) Reportings, die in manueller Erstellung mühsam, zeitaufwändig und intransparent sein können. Nachweise für die Compliance zu erbringen, wird hier zur kostenintensiven Aufgabe.
Uneinheitliche Systeme und Methoden
In vielen Unternehmen ist die IT-Struktur nicht mehr Compliance-konform: Bis jetzt basieren zahlreiche Randprozesse und Systeme auf Spreadsheet und E-Mail. Das erschwert die Zusammenarbeit mit Lieferanten und die Einhaltung von Governance-und Compliance-Vorschriften enorm. Zudem erfordert die Verwaltung komplexer Beziehungen zu Dienstleistern eine umfassende Due-Diligence-Prüfung. Unternehmen müssen die Einhaltung von komplexen, multidimensionalen Sanktionsprüfungen in Abhängigkeit von zum Beispiel Region, Produktkategorie und Auftragsvolumen sicherstellen und das Geschäftsrisiko minimieren. Hier arbeiten viele unterschiedliche Abteilungen teilweise auf sehr individueller Fallebene zusammen. Bei einer manuellen Bearbeitung sind Fehler vorprogrammiert: Diese Prozesse in uneinheitlichen Systemen sind intransparent und ineffizient.
In vielen Unternehmen gelingt die Überwindung dieser Schwierigkeiten durch die Nutzung moderner Digitalisierungstechnologien, die auch die Orchestrierung und Automatisierung ihrer Prozesse ermöglichen. Neue Technologien vereinfachen die Art und Weise der relevanten Datenerhebung und Berichterstattung. Das spart Personalressourcen für Koordination und Bearbeitung ein. Doch häufig wagen viele Firmen den Schritt erst nach langer Überlegung: Um aktuelle Digitalisierungs- und Automatisierungs-Potenziale zur Abbildung neuer Governance- und Compliance-Regelungen nutzen zu können, muss die Unternehmens-IT neue Technologieplattformen in ihrer Architektur abbilden.
Plattform für Prozessorchestrierung
Die aktuellen Lieferkettengesetze zeigen deutlich, welchen hohen Stellenwert die digitale Orchestrierung von Prozessen heute hat. Jetzt brauchen Unternehmen die Steuerung von komplexen Aufgaben, deren Automatisierung Abläufe verkürzt und deren Funktionsweise überzeugt. Die Basis hierfür bietet eine Plattform mit hoher Integrationsfähigkeit. Appian dockt an die vorhandenen ERP-Systeme an. Dabei verbinden sich flexibel austauschbare Datenquellen miteinander und schaffen ein einheitliches System. So werden die Prozessvariationen über unterschiedliche Systeme hinweg orchestriert – für mehr Transparenz und Effizienz.
Verbindung von Datenquellen und Prozessoptimierung
Um den Wandel zu beschleunigen, eignen sich vor allem so genannte Data Fabric Tools. Sie sind eine wichtige Komponente bei einer entsprechenden Prozessautomatisierungs-Plattform. Für eine komplexe Automatisierung im großen Maßstab ist eine solide Datenarchitektur erforderlich, die verschiedene Datenquellen miteinander verbindet – denn oft werden die Informationen heute noch immer in Datensilos gelagert, die über die gesamte Organisation verstreut sind.
In diesem Kontext spielt Data Fabric eine zentrale Rolle, denn der Ansatz verknüpft Datenquellen in verschiedenen Systemen miteinander – ob On-Premises oder in Cloud-Umgebungen – und integriert sie in die Prozessabläufe.
Eine Data-Fabric-Lösung vereinheitlicht den Blick auf die Daten aus unterschiedlichen Systemen und erlaubt sogar den Bezug von Informationen eines Systems auf Basis eines Datenfeldes auf ein ganz anderes System.
Fabian Czicholl, Appian
Die Datensätze verbleiben dabei in ihren ursprünglichen Systemen. Dank einer virtualisierten Datenebene müssen die Informationen nicht aus ihrem aktuellen Speicherort wie einer Datenbank, einem ERP-System oder einer CRM-Anwendung kopiert werden, wenn mit ihnen gearbeitet werden soll. Der Zugriff auf Echtzeitdaten erlaubt qualitativ bessere und schnellere Entscheidungen – und er entlastet IT-Teams von zeitaufwändiger und kostenintensiver Datenintegrationsarbeit. So lassen sich Geschäftsdaten auf neue und besonders effiziente Weise nutzen.
Die Plattform zur Prozessautomatisierung von Appian kombiniert zudem weitere Technologien, um die entsprechenden Gesamtprozesse zu optimieren und zu automatisieren. Im Einzelnen sind das die Robotic Process Automation (RPA), das Intelligent Document Processing (IDP), die Workflow-Orchestrierung, der Einsatz Künstlicher Intelligenz (KI), aber auch Systemintegration und Geschäftsregeln.
Vereinheitlichte Analyse
Ein weiterer Vorteil ist die vereinheitlichte Analyse. Eine Data Fabric-Lösung verwendet wie beschrieben eine virtualisierte Datenebene, um Daten aus jeder Quelle in ein einheitliches Modell in Kontext oder Verbindung zu setzen. So können Unternehmen eine umfassendere und genauere Sicht auf ihre Prozesse und Kunden sowie die relevanten Märkte bekommen. Mit dem einheitlichen Datenmodell lassen sich aber auch Advanced-Analytics-Prognosen durchführen, die vorher so nicht möglich waren. Data Fabric unterstützt zudem Erkenntnisse in Echtzeit. Die virtualisierte Datenschicht spielt dabei eine wesentliche Rolle, indem sie konsistent Updates sowohl beim Lesen als auch beim Schreiben von Daten an die ursprüngliche Datenquelle und von ihr zurück überträgt. So sind die Informationen immer auf dem neuesten Stand und Entscheidungen lassen sich schneller treffen.
Von zentraler Bedeutung ist die hohe Zuverlässigkeit beim Datenzugriff auf jeder Ebene. Dafür sorgt die Data-Fabric-Architektur – hiermit lässt sich der Zugang selbst auf granularen Ebenen wirksam beschränken.
Effektivere Datennutzung
Eine Data Fabric-Lösung vereinheitlicht den Blick auf Daten aus unterschiedlichen Systemen und erlaubt sogar den Bezug von Informationen eines Systems auf Basis eines Datenfelds auf ein ganz anderes System – rasch und quellenübergreifend. Was früher noch eine umfassende Aufgabe für Data Scientists sowie Entwicklungsteams war, ist heute eine einfache Abfrage in einem Data-Fabric-System.
Durch die Verbindung von Daten unter Berücksichtigung eines quellübergreifenden Rechtekonzepts und die Unterstützung agiler Analysen in Kombination mit einer Anwendungsentwicklungsumgebung für Workflows, bietet Data Fabric Unternehmen die Chance, ihre Daten innerhalb von Prozessen effektiver zu nutzen – und vor allem maximale Compliance-Sicherheit zu haben.
Betriebswirtschaftliche Vorteile
Dass die manuelle Bearbeitung Prozesse verlangsamt und erschwert, ist kein Geheimnis – und es besteht ein erhöhtes Risiko menschlicher Fehler. Das kann in Zusammenhang mit verschärften Regularien und Sanktionen fatale wirtschaftliche Folgen haben. Daher bietet eine Prozessautomatisierungsplattform auf Basis einer leistungsfähigen Data Fabric-Komponen te betriebswirtschaftliche Vorteile: Dazu gehören die Entwicklungsgeschwindigkeit und Skalierbarkeit, denn eine Data Fabric-Architektur wartet mit konsistenten Funktionen für sämtliche Entwicklungen im Bereich datengesteuerter Anwendungen auf.
Ohne einen Data Fabric-Ansatz erfordern hybride Umgebungen komplexe „Data-Engineering“-Fähigkeiten, um die erforderlichen Informationen in entsprechende Anwendungen zu integrieren. Das führt zu Verzögerungen bei der Entwicklung neuer Geschäftsanwendungen. Mit Data Fabric-Technologie können Daten unabhängig von ihrem Standort oder Format leicht abgerufen, verwaltet und analysiert werden. Das hilft auch bei der Skalierung von Daten über Anwendungen hinweg.
Automatisierungsplattform als „Agilitätsschicht“
Die Data Fabric-Tools für die Prozessautomatisierungsplattform von Appian zeichnen sich durch vorgefertigte Konnektoren aus, die Systeme wie CRM, ERP und Datenbankanwendungen miteinander verbinden, ohne dass diese Integrationen von Grund auf neu entwickelt werden müssen. Eine Workflow-Orchestrierung sollte ebenfalls vorhanden sein, um unterschiedlichste Aufgaben nahtlos zwischen Software-Bots und menschlichen Mitarbeitern zu verteilen oder zu koordinieren.
Eine Plattform mit hoher Integrationsfähigkeit für eine systematische Prozessorchestrierung wird als „Agilitätsschicht“ an die vorhandenen Systeme angedockt. Unterschiedliche Datenquellen werden miteinander verbunden, die während einer laufenden Migration flexibel austauschbar sind. So orchestriert Appian mit der unternehmenseigenen Plattform die Prozessvariationen systemübergreifend. Das schafft Transparenz und steigert die Effizienz.
Eine über diesen ersten Schritt hinausgehende Prozessautomatisierung hat das Potenzial, die Art und Weise, wie Unternehmen mit Anbietern und Lieferanten kommunizieren, grundlegend zu verändern. Werden die Datenquellen der ERP-Systeme verknüpft und die Prozesse zur Fallbearbeitung automatisiert, entstehen dadurch dynamische Ad-hoc-Arbeitsabläufe. Mit entsprechenden Workflow-Funktionen können Aufgaben und Arbeitsschritte koordiniert werden – und es kann bedarfsweise gegengesteuert oder auch automatisiert und damit die Effizienz erhöht werden.
Die Case Management-Plattform von Appian unterstützt das Erstellen und Verwalten von Geschäftsregeln und bietet den Mitarbeitenden die Möglichkeit, Prozesse schnell an neue Situationen anzupassen. Insgesamt lässt sich die Lösung schnell und flexibel implementieren und nutzen. Das entsprechende User Interface ist auch sofort auf Mobilgeräten verfügbar.
KI und Machine Learning für strukturierte Daten
Bei einer anspruchsvollen Lösung wie einer Automatisierungsplattform sind neue Technologien erfolgsentscheidend. Im Bereich Automatisierung ist das insbesondere Künstliche Intelligenz. Zum Beispiel beim Intelligent Document Processing (IDP). Machine Learning kann unstrukturierte Informationen in strukturierte Daten umwandeln oder auch Dokumente automatisch klassifizieren. Die aktuellen Entwicklungen bei generativer KI und Large Language Models unterstützen die Prozessautomatisierung.
Dabei sollten entsprechend vortrainierte KI-Modelle, die mit unternehmenseigenen Daten spezieller trainiert werden, diese Firmendaten niemals zurück an den KI-Anbieter spielen. Eine solche private KI gewährleistet den Datenschutz und Einhaltung der jeweiligen Unternehmens-Policies.
Mit den geeigneten Methoden lassen sich die Herausforderungen der neuen Compliance-Richtlinien gut bewältigen. Unternehmen können so effizient und transparent agieren sowie ihrer Verantwortung gerecht werden. Digitalisierung und Automatisierung sind zentrale Mittel, um den Anforderungen neuer ESG-Gesetze sowie dem neuen Lieferkettengesetz zu entsprechen und damit letztendlich auch einen Beitrag zu einer nachhaltigeren und gerechteren Welt zu leisten.