In der sich schnell wandelnden IT-Landschaft benötigen Unternehmen flexible Datenintegrationstools. Die Integration von Cloud- und On-Premises-Systemen in Echtzeit gewinnt an Bedeutung. Fünf Schlüsselfunktionen sichern eine erfolgreiche, zukunftssichere Datenstrategie.
Eine “typische IT-Landschaft” gehört in den Unternehmen von heute schnell der Vergangenheit an. Es ist eine sich ständig verändernde Welt, in der die Systeme routinemäßig um Handelsplattformen, externe Datenquellen und Edge-Anwendungen erweitert werden, die der Verbesserung des Kundenerlebnisses dienen.
Die meisten Unternehmen arbeiten heute mit einer Mischung aus Cloud-, Hybrid-Cloud- und On-Premises-Lösungen. Viele führen ihre geschäftskritischsten Operationen weiterhin auf Mainframe- und IBM i-Computern aus, die für ihre hohe Sicherheit und Skalierbarkeit respektiert und geschätzt werden, aber nicht für die Integration mit modernen verteilten Systemen ausgelegt sind.
Welcher Ansatz auch immer verfolgt wird, die Integration von Unternehmensdaten hat an strategischer Bedeutung gewonnen. Die plötzliche Popularität von Cloud-Datenplattformen wie Databricks, Snowflake, Amazon Redshift, Amazon RDS, Confluent Cloud und Azure Synapse hat den Bedarf an leistungsstarken Datenintegrationstools erhöht, die große Mengen an Informationen aus Transaktionsanwendungen zuverlässig, in großem Umfang und in Echtzeit in die Cloud übertragen können.
Die Zeiten, in denen ETL (Extrahieren, Transformieren, Laden)-Batchaufträge über Nacht ausgeführt wurden, sind vorbei. Dies liefert nicht die unmittelbaren Ergebnisse, die heutige Unternehmen benötigen. Und was vielleicht noch wichtiger ist: Es fehlt die Flexibilität, die notwendig ist, um sich an die Anforderungen anzupassen, die sich aus der ständigen Weiterentwicklung der IT-Landschaft des Unternehmens und der Kundenanforderungen ergeben.
Das neue Paradigma ist dynamisch und fließend. Wichtig ist, den Geschäftsanwendern Daten schnell zur Verfügung zu stellen, wo immer sie sie benötigen. Um in dieser neuen Umgebung effektiv arbeiten zu können, müssen die Datenintegrationslösungen zukunftssicher gestaltet werden.
Im Folgenden werden fünf Schlüsselfunktionen vorgestellt, die sicherstellen, dass die Datenintegrationslösung in einer sich ständig weiterentwickelnden Umgebung mithalten kann.
1. Hinzufügen neuer Quellen und Ziele
Genauso wie der Wert eines Netzwerks von der Anzahl der Knoten im Netzwerk abhängt, ist der Wert einer Integrationslösung eine Funktion ihrer Fähigkeit, schnell und einfach neue Datenquellen und Ziele hinzuzufügen.
Unternehmen sind heutzutage ständig auf der Suche nach Innovationen. Das kann etwas so Einfaches sein wie das Hinzufügen einer neuen Anwendung zur IT-Landschaft oder etwas so Komplexes wie die Übernahme eines Konkurrenten und die Integration von dessen Informationssystemen in das Unternehmen. In jedem Fall ist in der Regel eine Art von Datenintegration erforderlich. Erschwerend kommt hinzu, dass sich die daraus resultierenden Integrationslösungen im Laufe der Zeit wahrscheinlich ändern werden.
In der alten Welt konnte jede größere Änderung in der IT-Landschaft ein eigenes Projekt erfordern, das benutzerdefinierten Code, umfangreiche Qualitätssicherungstests und einen Go-Live-Cutover zu Zeiten außerhalb der Spitzenzeiten beinhaltete.
Nun haben sich die Zeiten geändert – und zwar rapide. Dieser Ansatz ist nicht mehr praktikabel. Die Integrationslandschaft muss in der Lage sein, sich schnell und einfach um Datenquellen und -ziele zu erweitern, ohne dass eine große neue IT-Initiative gestartet werden muss.
Die besten Tools für die Integration von Unternehmensdaten sind in der Lage, Verbindungen zu einer Reihe unterschiedlicher Quellen und Ziele herzustellen, darunter Mainframe- und IBM i-Systeme. i-Daten sind von Natur aus eine Herausforderung, da sie nicht dem Standard entsprechen, der von den meisten modernen verteilten Rechnersystemen verwendet wird.
2. Echtzeit-Integration mit Änderungsdatenerfassung
(Change Data Capture CDC)
Wie bereits erwähnt, ist die alte Praxis der Batch-Integration nicht mehr ausreichend. Heutige Unternehmen benötigen je nach Anwendung Echtzeit- oder Fast-Echtzeit-Leistung. Das Timing ist wichtig.
Nehmen wir zum Beispiel die Herausforderung, vor der Kreditkartenunternehmen bei der Aufdeckung betrügerischer Transaktionen stehen. Algorithmen der künstlichen Intelligenz (KI) sind darauf trainiert, Anomalien zu erkennen. Diese reichen von der Erkennung von Transaktionen, die aus einem Land stammen, das als häufige Betrugsquelle bekannt ist, bis hin zum Querverweis von Transaktionsbeträgen und -orten, um nach gemeinsamen Mustern zu suchen, die verdächtig sein könnten.
Es nützt jedoch wenig, eine betrügerische Transaktion zu erkennen, wenn sie bereits verarbeitet wurde. Hier macht die Echtzeitintegration den Unterschied. Das Gleiche gilt für Systeme, die Handelsplätze, Geldautomatentransaktionen, Ausfälle von Telekommunikationsnetzen, verdächtigen Netzverkehr und vieles mehr überwachen. Die Sichtbarkeit von Daten in Echtzeit ist ein Wettbewerbsvorteil.
Vielleicht noch wichtiger ist, dass das Gegenteil zutrifft: Wenn Informationen verzögert werden, bringen sie dem Unternehmen weniger Wert. In der heutigen Welt ist die Integration in Echtzeit nicht mehr optional.
3. Einfache Bereitstellung in neuen Umgebungen
Die besten Datenintegrationstools ermöglichen eine einfache und schnelle Bereitstellung, ohne dass spezielle Kenntnisse erforderlich sind. Die Bereitstellung sollte ressourceneffizient sein und sich leicht an Ihre Anwendungsfälle anpassen lassen.
Dazu gehört die Fähigkeit zu:
- Integrationslösung in neuen Umgebungen einsetzen, ohne dass die Streaming-Data-Pipelines neu entwickelt oder entworfen werden müssen
- Das Unternehmen vor Unterbrechungen geschützt ist, die bei der Weiterentwicklung der IT-Landschaft auftreten könnten
- Änderungen an den Datenquellen und -zielen vornehmen – ohne Kodierung, Abstimmung oder Neuentwicklung.
Die Verlagerung von Anwendungen in die Cloud sollte ebenfalls ohne größere Unterbrechungen des Integrationskonzepts möglich sein.
4. Kugelsichere Zuverlässigkeit und Skala
Nicht jede Integrationssoftware ist gleich. Kostengünstige Lösungen mögen bei geringem Transaktionsvolumen gut funktionieren, können aber bei steigendem Volumen zu Engpässen werden.
Deshalb ist es so wichtig, nach Software zu suchen, die sich effektiv skalieren lässt, wenn die Anforderungen des Unternehmens wachsen. Die Datenintegrationstools sollten dies berücksichtigen:
- wachsende Datenmengen
- eine wachsende Zahl von Nutzern
- starke Verbrauchsspitzen in Zeiten der Spitzennachfrage
Bei der Suche nach der richtigen Datenintegrationssoftware muss bei den Anbietern erkundigt werden, wie sie zuverlässige, vorhersehbare Leistung und Skalierbarkeit bieten.
Zuverlässigkeit bedeutet auch, dass man im Falle eines Fehlers schnell reagieren kann. Selbst ein kurzzeitiger Netzwerkausfall kann dazu führen, dass einige Daten nicht an das vorgesehene Ziel übermittelt werden. Die besten Tools zur Integration von Unternehmensdaten verfügen über eine integrierte Ausfallsicherheit mit garantierter Zustellung und Datenintegrität. Das bedeutet, dass jeder Datensatz wie vorgesehen zugestellt wird, ohne Duplikate für ausgelassene Transaktionen.
5. Integrierter Datenkatalog zur Unterstützung von Metadaten
Beim Aufbau des IT-Ökosystems ist es wichtig, dass Tools eingesetzt werden, die über die Fähigkeiten verfügen, zukunftsorientierte Anwendungsfälle zu unterstützen. Eine bemerkenswerte Funktion, mit der dies erreicht wird, ist der Datenkatalog. Ein Datenkatalog ist eine Kernkomponente der Data Governance, da er eine zentrale Wissensdatenbank für Benutzer im gesamten Unternehmen darstellt.
Ein gut integrierter Datenkatalog unterstützt die umfassende Erkennung, den Zugriff, die Verwendung und die gemeinsame Nutzung von technischen und geschäftlichen Metadaten und automatisiert und verbessert Ihre Datenintegrations- und Betriebsaufgaben. Er fasst alle Metadaten rund um die Datenbestände eines Unternehmens zusammen und ordnet die Informationen in einem einfachen, leicht verständlichen Format an.
Zu den zusätzlichen Data-Governance-Funktionen, auf die Unternehmen achten sollten, gehören solche, die Governance-Vorgaben unterstützen – wie Datenqualität, Datenabfolge und Durchsetzung von Richtlinien – und gleichzeitig Daten für bestimmte Anwendungsfälle verarbeiten, einschließlich Stammdatenmanagement.
Fazit
Um konkurrenzfähig zu bleiben, muss ein Unternehmen technologische Entwicklungen, IT-Progresse und die IT-Ökosystementwicklungen stets im Auge behalten. Die korrekte und sichere Datenintegration ist ein wichtiger Faktor, der immer mitgedacht werden muss, um mögliche Risiken rechtzeitig zu erkennen und abzuwehren.