Selbstlernende Erkennungssoftware

ECM und EIM auf die Überholspur

Durch die Kombination neuronaler Netze und verteilter Softwarearchitekturen entsteht die nächste Generation ECM-/EIM-Software (Enterprise Content Management, Enterprise Information Management) und hebt die Latte für smarte Lösungen auf ein neues Niveau.

Eine Menge Informationen schlummern in den Datenbeständen deutscher Unternehmen. Vor allem Archivsysteme, die seit vielen Jahren von unterschiedlichen Anwendungen bedient wer­den, enthalten Daten, deren Informationsgehalt nicht ansatzweise nutzenbringend ein­ge­setzt wird. Das liegt in erster Linie daran, dass klassische Archiv- oder auch ECM-Systeme Dokumentinformationen nur auf Kopfebene er­fas­sen. Detaillierte Inhalte sind im Normalfall nicht abrufbar oder nur durch ungenaue, teure und aufwendige Prozeduren wie beispiels­weise einer Volltextindizierung zu finden. Ganz zu schweigen von einer strukturierten Auf­be­reitung dieser Informationen zur weiterführenden Verarbeitung. Eine technische Lösung das künftig zu ändern, liefert das IT-Unternehmen Deepshore aus Hamburg.

Anzeige

Software wandelt Daten um

Die Hamburger Software-Ingenieure haben auf Basis von Open-Source-Projekten und Google-Technologien eine Software entwickelt, die in der Lage ist, auch unstrukturierte Bildformate wie beispielsweise TIFF oder BMP zunächst in les- und analysierbare Daten umzuwan­deln und damit Inhalte zu erkennen. Diese Informationen können dann mittels eines neuro­nalen Netzes automatisch analysiert und klassifiziert werden. Je nach Anforderung ist es möglich, auf diese Weise gewonnene Erkenntnisse auch so zu speichern, dass nicht auf die ge­wohnte Compliance-Fähigkeit klassischer ECM-Systeme verzichtet werden muss. Diesen Teil der Lösung ergänzt Deepshore mit seinem verteilten Cloud-Archiv auf Basis von Blockchaintechnologie. Deepshore arbeitet als Innovation Hub des ECM-Spezialisten nextevolution – ebenfalls aus Hamburg – und hat das verteilte Cloud-Archiv 2019 im Rahmen einer Forschungskooperation mit dem Handels­kon­zern METRO entwickelt.

Infrastrukturelle Flexibilität 

Einer der großen Vorteile gegenüber herkömmlichen technischen Ansätzen in diesem Bereich ist die infrastrukturelle Flexibilität der Lösung. Durch die eingesetzte Container­tech­no­logie kann Software vollständig als Service in einer Cloud, im eigenen Rechenzentrum oder auch hybrid als Mischung aus beidem, betrieben werden. Aufwendige Installationen werden dadurch überflüssig, und bei richtiger Konfiguration kann mit steigender Last der Ausbau eines Systems nahezu vollautomatisch skaliert werden.

Nach der Entwicklung kann das neuronale Netz nun mit Echtdaten trainiert werden. Deepshore verspricht sich durch das neue System im trainierten Zustand we­sent­lich bessere Erkennungsraten im Vergleich zu bisherigen Lösungen – wie etwa einer klassi­schen OCR (Optical Character Recognition – automatisierte Texterkennung in Bildern) in Kom­bination mit vordefinierten Suchmustern auf Basis von Regular Expressi­ons. Darüber hinaus werden in Zukunft die gesamten Betriebskosten der Dokumentenerken­nung und Klassifizierung signifikant geringer sein.

Anzeige

Neuronale Netze

Bild: Prinzip Neuronale Netze (Quelle Andreas Otto, sense:ability Berlin)
 

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.

Trainingslager für künstliche Intelligenz

So avanciert zum Beispiel eine lästige Datenmigration zum Trainingslager für künstliche In­tel­ligenz. Durch die technische Ausprägung als Service kann das „Training“ dabei fast voll­ständig entkoppelt von einer Migrationsinfrastruktur laufen. Elegant ist dieser Ansatz vor allem deshalb, weil das System mit jedem Trainingseinsatz das Prinzip besser „versteht“, dazulernt und sich mit diesen Trainingsergebnissen weiter optimieren lässt. Wenn das System zum Beispiel mit den anonymisierten Daten verschiedener Unternehmen einer Branche „ge­füttert“ wird, entsteht eine Branchenoptimierung, die allen Anwenderunternehmen nützt. In der Frühphase des Trainings ist es wichtig, das Netz korrekt zu initialisieren. Das Konzept kann dabei mit dem Training einer Sportmannschaft verglichen werden. Auch hier ist ein Trainer gefragt, der mit der Grundaufstellung und dem Herstellen körper­li­cher Fitness die Basis für taktische Feinheiten und den weiteren Erfolg legt.

Das Einsatzgebiet dieser neuronalen Services ist nicht auf einzelne Branchen beschränkt. So kann quasi jeder Datenbestand oder jedes Archivsystem dazu genutzt werden, entspre­chen­de Informationen zu extrahieren und gewinnbringend einzusetzen.

Als Experte für die Verarbeitung von Compliance-Daten und als Thinktank des IBM Partners nextevolution hat Deepshore die eigene Lösung bereits heute vollständig in die neue IBM Automation Platform for Digital Business integriert. Damit können IBM-Kunden beispielsweise den IBM Business Automation Content Analyzer verbinden, um weiteren Mehr­wert aus vorhandenen Datenströmen nutzbar zu machen.

www.deepshore.de

Anzeige

Artikel zu diesem Thema

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.