Datenforensik ist eine höchst aufwendige und kleinteilige Tätigkeit zur strafrechtlichen Aufklärung und unternehmensinternen Analyse. Doch auf die Seite der Ermittler, Analysten und IT-Verantwortlichen hat sich jetzt ein machtvolles Tool gestellt. Intelligentes und automatisiertes Datenmanagement revolutioniert die Analyse und Klassifikation von unstrukturierten Datenmengen.
Kriminalistisch relevante Datenspuren gleichen oft einer feinen Linie, die sich durch verwobene Netze aus Millionen von Dateien zieht. Sie im Sumpf des Verbrechens aufzuspüren erfordert ein feines Gespür und leistungsfähige Lösungen. Diese unterstützen Ermittler und Anwender schnell und zielgerichtet. So lassen sich die relevanten Dokumente und Beweise rechtssicher finden. Vermögensstraftaten, Bilanzmanipulationen, Kartelle, Datenschutzverstöße, Spionage oder Diebstahl können aufgedeckt und der juristischen Beurteilung übergeben werden.
Aber auch Unternehmen, Netzwerkbetreiber und IT-Dienstleister stehen immer häufiger vor einer großen Herausforderung. Sie müssen die Schwachstellen in ihren Systemen finden, die rechtliche Folgewirkungen verursachen können. Denn viele Datenpannen, DSGVO- oder Compliance-Verstöße sind keine Kavaliersdelikte. Sie ziehen oft schwerwiegende Konsequenzen nach sich. Wer beispielsweise meldepflichtige Verstöße der DSGVO nicht fristgerecht anzeigt, muss mit Strafen von bis zu 10 Millionen Euro oder zwei Prozent des Jahresumsatzes rechnen.
Unstrukturierte Daten sind die größte Hürde der Forensik
Die zentrale Aufgabe bei der Datenforensik besteht darin, Datenmengen zu analysieren und die relevanten Dokumente zu identifizieren und zu systematisieren. Bei großen Datenumfängen gleicht diese Herausforderung der sprichwörtlichen Suche nach der Nadel im Heuhaufen. Denn die zu analysierende Datenmenge umfasst in vielen Fällen bis zu tausende Terabyte an Daten. Sie sind in Form unterschiedlichster Dateitypen unstrukturiert gespeichert. Das bedeutet, dass oft viele Duplikate zirkulieren und keine Klassifikationen nach Vertraulichkeit oder Sicherheit vorliegen. Je weniger der Datenbestand gepflegt worden ist, umso aufwendiger und kostenintensiver gestaltet sich die Extraktion.
Dieser Aufwand wird in der Forensik schnell zum Problemfaktor, weil in den meisten Fällen die Zeit drängt. Behörden und Dienstleister müssen oft innerhalb weniger Tage die relevanten Informationen finden, um Bedrohungen zu erkennen und Straftaten aufzudecken. Eine Aufgabe, die umso schwerer fällt, je größer die zu scannenden Datenvolumen sind. Unstrukturierte und exponentiell wachsende Daten sind deshalb eine kaum überwindbare Hürde für eine schnelle Prüfung.
Zuverlässigkeit der Fundstellen
In der Forensik kommt es auf eine hohe Validierungsqualität und Zuverlässigkeit der Fundstellen an. Sie sind oft Ausgangspunkt aufwendiger Ermittlungen und ein wichtiges Beweismittel für die gerichtliche Verwendung. Auch die Klassifizierung und der Schutz von personenbezogenen, geschäftskritischen und unter den Geheimschutz fallenden Daten sind deswegen eine zentrale Anforderung.
In der Praxis lauern daher viele Fallstricke bei der forensischen Datenanalyse. Compliance-Vorschriften müssen umgesetzt, Datenfälschungen erkannt und Datenverfälschung ausgeschlossen werden. Dazu kommen institutionelle Veränderungen und Marktentwicklungen, die die Rahmenbedingungen oft schnell und schwer prognostizierbar wandeln. Sie werden Jahr für Jahr umfangreicher und komplexer.
Die rein menschliche Analyse wird diesen Anforderungen längst nicht mehr gerecht. Zu fehleranfällig und zeitaufwendig ist das händische Vorgehen. Auch die üblichen Suchmaschinen und Enterprise-Tools kommen in großen dezentralen Infrastrukturen an ihre Grenzen. Bisher konnten deshalb aus unstrukturierten Datensätze nur in den wenigsten Fällen wertvolle Hinweise für die Forensik extrahiert werden. Ein Umstand der sich mit intelligenten Datenmanagement-Lösungen ändert.
Datenmanagement unterstützt die weiße Macht…
Mit Datenmanagement-Software für die Analyse und Bereinigung unstrukturierter Datensätze stellt sich ein starker Begleiter auf die Seite der Guten. Er maximiert die Datentransparenz und schafft damit die Basis für eine effektive und schnelle datenforensische Aufarbeitung. Nach einem Scan kann die Software alle Datei-Metadaten ausgeben und die Datenbestände klassifizieren. Das ist zum einen bei standardisierten Anforderungen wie beispielsweise personenbezogen Daten möglich. Zum anderen können auch hochkomplexe und anwendungsspezifische Anforderungen umgesetzt werden.
Durch die Klassifizierung werden bestehende Silos aufgebrochen und alle relevanten Informationen in einem Dashboard ausgegeben. Das reduziert den Arbeits- und Zeitaufwand drastisch, da auch das interne Risikomanagement abteilungs- und filialübergreifend miteinander verknüpft werden kann. Der gesamte Prozess erfolgt dabei transparent und nachvollziehbar. Das ist ein wichtiges Kriterium für eine gerichtsfeste Dokumentation, denn derartige Systeme dürfen keine KI-Blackboxes sein.
Die Suchfunktion darf ebenfalls nicht mit einfachen Tools verwechselt werden. Die Intelligenz der Lösung ermöglicht eine Lokalisation und Analyse die weit darüber hinausreicht. Sie umfasst Metadaten, Inhalt, Kontext, zeitliche Aspekte, Zugriffsprotokolle, Eigentümer, Berechtigungen und vieles mehr. Diese Informationen sind die Basis für eine regelbasierte und vollautomatisierte Klassifizierung. Die anschließende Berichterstellung verkürzt den Arbeitsaufwand für Mitarbeitende der IT und Ermittler drastisch. Zudem lassen sich entstehende Daten-Muster erkennen und somit frühzeitig strategische Gegenmaßen in die Wege leiten.
… und sorgt für schwarze Zahlen
Die Berichtsfunktionalitäten moderner Lösungen bieten dabei eine Vielzahl an Optionen. So können verschiedene Berichtformate erstellt und ausgegeben werden. Die damit einhergehende Zeitersparnis ermöglicht es Datenmengen innerhalb von Tagen zu überprüfen und zu publizieren, die ohne Softwareunterstützung Monate oder Jahre benötigen würden. Aber auch die Weitergabe an andere Tools ist möglich und beschleunigt die Ermittlung in zeitkritischen Situationen deutlich.
Die Schlagkräftigkeit steigt so drastisch an – etwa um den Faktor fünf bis zehn. Das sorgt für deutliches Einsparpotenzial bei den Betriebskosten und senkt den Personalbedarf. In Zeiten des Fachkräftemangels können Unternehmen und Forensik so wertvolle Expertenzeit einsparen und Ergebnisse schneller präsentieren. Dadurch wird auch die Prävention von Datenverlusten zu einer realistischen Aufgabe. Denn nach dem Data Breach ist bekanntlich vor dem Data Breach.