Digitale Sicherheit neu gedacht

AISPM: KI-Security für Unternehmen

Bildquelle: Jorge Franganillo – Pixabay

Künstliche Intelligenz revolutioniert Unternehmensprozesse, doch KI-Sicherheit wird zur Herausforderung. AI Security Posture Management (AISPM) schützt vor Datenlecks, manipulierten KI-Modellen und fehlerhaften KI-Entscheidungen.

Künstliche Intelligenz ist eine transformative Technologie, die nicht nur einzelne Unternehmen, sondern ganze Branchen verändert. Sie hilft, Abläufe zu automatisieren, Mitarbeiter zu entlasten, bessere Entscheidungen zu treffen und Kosten zu senken – weshalb viele Unternehmen den KI-Einsatz schnell vorantreiben, um möglichst keine Chancen zu verpassen. Dass damit erhebliche Sicherheitsrisiken einhergehen, ist ihnen allerdings nicht immer bewusst.

Anzeige

Eine unterschätzte Gefahr ist der Abfluss sensibler Daten, wenn Mitarbeiter interne Dokumente beispielsweise von externen KI-Services optimieren oder zusammenfassen lassen. Enthalten die Dokumente personenbezogene Daten, kann das einen Verstoß gegen die DSGVO darstellen, so es sich um Dienste außerhalb der EU handelt. Schließlich landen alle Eingaben und Uploads auf den Servern der Anbieter und werden dort gespeichert und verarbeitet.

Das gilt auch für vertrauliche Informationen wie Finanzdaten oder geistiges Eigentum, die etwa durch einen Angriff auf den KI-Service an die Öffentlichkeit gelangen können. Verwendet der Anbieter die Nutzereingaben zur Verbesserung seiner KI-Modelle, können die internen Daten sogar in den Antworten für andere Nutzer des Services auftauchen.

KI ist nur so gut wie die Trainingsdaten

Auch bei selbstentwickelten KI-Anwendungen besteht das Risiko von Datenabflüssen, schließlich lebt KI von großen Datenmengen – je mehr Informationen zum Training oder Fine-Tuning eingesetzt werden, desto besser sind die Prognosen, Entscheidungen und generierten Inhalte. Befinden sich sensible Daten im Trainingsmaterial, tauchen diese möglicherweise in den Ausgaben für Mitarbeiter auf, die eigentlich keinen Zugriff auf diese Daten haben sollten – oder schlimmer: in den Ausgaben für externe Nutzer.

Anzeige

Darüber hinaus stehen die Trainingsdaten zunehmend im Visier von Cyberkriminellen, die durch Manipulationen versuchen, KI-Modelle gezielt zu schwächen oder zu infiltrieren. Das heißt, auf den Modellen basierende Anwendungen liefern dann allgemein oder in einzelnen Bereichen schlechtere Ergebnisse oder generieren bei einem bestimmten Input einen ganz spezifischen, vom Angreifer erwünschten Output. Neben manipulierten Trainingsdaten sorgen allerdings auch schlechte oder schlecht ausgewählte Trainingsdaten für problematische Ergebnisse – etwa ungenaue Prognosen oder unfaire, vorurteilsbehaftete Entscheidungen und Inhalte.

Und nicht zuletzt existieren operative Risiken beim KI-Einsatz – beispielsweise unvorhergesehene Reaktionen des Modells, die wichtige Geschäftsprozesse unterbrechen, oder eine schleichende Verschlechterung der Ergebnisse, wenn sich Datenquellen verändern oder wegfallen.

Mit der KI-Discovery fängt alles an

Ein Ansatz, um die mit dem KI-Einsatz verbundenen Risiken in den Griff zu bekommen, ist AI Security Posture Management (AISPM). Anders als ein Cloud Security Posture Management (CSPM), das sich auf Cloud-Risiken konzentriert, oder ein Data Security Posture Management (DSPM), das den gesamten Lebenszyklus von Daten abdeckt, fokussiert es sich auf die Sicherheit von KI – unabhängig davon, ob es sich um klassische oder generative KI, externe Services oder intern entwickelte Anwendungen handelt. Allerdings gibt es durchaus Überschneidungen zwischen den Ansätzen und den eingesetzten Security-Lösungen.

Eine wichtige Komponente von AISPM ist die KI-Discovery – das Erkennen der im Unternehmen eingesetzten KI-Tools und -Services, darunter auch Schatten-KI, die einzelne Fachbereiche oder Mitarbeiter ohne Wissen der IT-Abteilung nutzen. Mithilfe der so gewonnenen Aufstellung können Unternehmen Risikobewertungen vornehmen, unter anderem in Bezug auf Datensicherheit, Modellintegrität und operative Auswirkungen des KI-Einsatzes. Und sie können unautorisierte Services sperren beziehungsweise legalisieren, indem sie die Services ins Sicherheitskonzept integrieren.

Natürlich ist die Discovery und Evaluierung von KI-Anwendungen keine einmalige Angelegenheit, sondern eine regelmäßig durchzuführende Tätigkeit, da sich KI schnell weiterentwickelt, immer mehr Tools und Services verfügbar sind und auch die Bedrohungslandschaft sich kontinuierlich verändert.

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.

Einheitliche Regeln durchsetzen

AISPM unterstützt Unternehmen dabei, Fehlkonfigurationen aufzuspüren, die beispielsweise den Abfluss von Daten oder den unautorisierten Zugriff auf KI ermöglichen. Unternehmen können so in die Lage versetzt werden Konfigurationsregeln zentral zu definieren und über alle KI-Tools und -Services hinweg durchzusetzen. Ebenso können sie dazu befähigt werden, dass der KI-Einsatz regulatorischen Vorgaben entspricht und konform zu internen Compliance-Richtlinien erfolgt. Dazu zählt auch die Umsetzung einer robusten Data Governance, die für sichere, korrekte und ausgewogene Trainingsdaten sorgt und diese durch Verschlüsselung und strenge Zugriffskontrollen schützt.

Ein kontinuierliches Monitoring der KI-Tools und -Services deckt Schwachstellen und mögliche Bedrohungen auf und erlaubt es, Sicherheitsmaßnahmen anzupassen und Angriffspfade zu eliminieren.

Unternehmen sollten das Thema AISPM nicht auf die lange Bank schieben, sondern proaktiv handeln, um Datensicherheitsrisiken zu minimieren.

Fabian Glöser, Forcepoint

Datensicherheit als Einstieg ins AISPM

Da es sich bei AISPM um einen recht neuen Ansatz handelt, hat sich noch kein festes Features-Set für AISPM-Lösungen etabliert. Mit dem wachsenden Bewusstsein für das Thema und der damit verbundenen Nachfrage wird sich das aber voraussichtlich bald ändern.

Einstweilen sind die CASB- (Cloud Security Access Broker) und Secure-Web-Gateway-Funktionen (SWG) sowie die Fähigkeiten zur Data Discovery und Datenklassifizierung, die DSPM-Lösungen mitbringen, ein guter Einstieg. Mit ihrer Hilfe können Unternehmen externe KI-Services aufspüren und die Nutzung reglementieren. Ebenso können sie sensible Daten identifizieren und vor unbefugten Zugriffen schützen. Risikobasierte Mechanismen passen den Schutz dabei kontextabhängig und in Echtzeit an. Ergänzend dazu verhindert eine DLP-Lösung, dass sensible Informationen bei KI-Tools und -Services eingegeben werden.

Bei der Datenklassifizierung, die früher sehr aufwendig war, setzen DSPM-Lösungen selbst auf KI, um den Prozess weitgehend zu automatisieren. Mit verschiedenen Small Language Models, die sehr schnell und ressourcenschonend sind, können Unternehmensdaten zuverlässig klassifiziert werden und die Genauigkeit steigt dank Machine-Learning kontinuierlich.

Letztlich sollten Unternehmen das Thema AISPM nicht auf die lange Bank schieben, sondern proaktiv handeln, um Datensicherheitsrisiken zu minimieren. Als goldene Regel gilt hier – das Fundament bildet eine flächendeckende Datenklassifizierung.

Fabian

Glöser

Team Leader Sales Engineering

Forcepoint

Foto: Stefan Winterstetter ⎮ winterstetter.de
Anzeige

Artikel zu diesem Thema

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.