Sysdig hat die Erweiterung seiner AI-Workload-Sicherheitslösungen auf Amazon Bedrock, Amazon SageMaker und Amazon Q bekannt gegeben. Sicherheitsteams müssen Angreifern immer einen Schritt voraus sein, denn für Cyberkriminelle sind KI-Workloads, die erheblichen Mengen sensibler Trainingsdaten enthalten, lukrative Ziele.
AI-Workload Security, eine Erweiterung der Sysdig Cloud-native Application Protection Platform (CNAPP), identifiziert und verwaltet aktive KI-Risiken und bietet Sicherheitsteams einen besseren Einblick in ihre Umgebungen, identifiziert verdächtige KI-Workload-Aktivitäten in Echtzeit und priorisiert Schwachstellen auf der Grundlage von Runtime Insights.
Amazon Bedrock, Amazon SageMaker und Amazon Q vereinfachen die Entwicklung generativer KI-basierter Anwendungen, indem sie Kunden hochleistungsfähige Basismodelle (FMs) zur Verfügung stellen und ihnen die Flexibilität geben, generative KI-Anwendungen zu entwickeln, die vollständig in ihre AWS-Umgebung integriert sind. Seit letztem Monat haben nach Angaben von AWS mehr als 10.000 Unternehmen weltweit die Vorteile dieser AWS AI Services genutzt. Generative KI-Workloads sind jedoch nicht frei von Sicherheitsrisiken. Das Sysdig Threat Research Team fand heraus, dass generative KI-Workloads mit einer um 35 Prozent höheren Wahrscheinlichkeit öffentlich zugänglich sind. Ein erhöhtes Risiko für Datenlecks in Verbindung mit mangelnder Transparenz verlangsamt nicht nur die Softwareentwicklung, sondern erhöht auch das Risiko, dass Anwendungen mit Schwachstellen in Produktion gehen. Optimalerweise, sollten die Unternehmen innerhalb der ersten 5 Sekunden bereits den Angriff erkennen, und
Innovationen schneller und sicherer machen
Die Cloud ist schneller, komplexer und dynamischer als lokale Umgebungen und bietet eine immer größere Angriffsfläche. KI macht diese Sicherheitsrisiken noch komplizierter. Optimalerweise, sollten die Unternehmen innerhalb der ersten 5 Sekunden bereits den Angriff erkennen, danach haben sie fünf Minuten, um ihn zu untersuchen und darauf zu reagieren. Sysdig und AWS entwickeln Innovationen, um Kunden dabei zu helfen, die Einführung von KI auf sichere Weise zu beschleunigen. AWS optimiert den Prozess der Entwicklung und Skalierung von KI, während Sysdig darin brilliert, verdächtige Aktivitäten innerhalb dieser Workloads zu erkennen und die unmittelbarsten Bedrohungen mit Echtzeiterkennung und tiefgehender Runtime-Transparenz zu bekämpfen.
Durch die Erweiterung von AI Workload Security auf AWS AI Services und die Erfassung von Echtzeitsignalen aus AWS CloudTrail-Protokollen kann Sysdig Ereignisse wie diese entschärfen und eine schnelle Reaktion ermöglichen:
- Aufklärungsaktivitäten: Erkennung nicht-autorisierter Zugriffsversuche wie der Entdeckung und Ausnutzung von KI-Diensten, damit Sicherheitsteams böswilligen Aktivitäten zuvorkommen können.
- Datenmanipulation: Erkennen von versuchter Datenmanipulation, Löschung von Modellen oder Wissensdatenbanken und von Deaktivierung der Protokollierung, um sensible Daten zu schützen und die Integrität von KI-Anwendungen zu gewährleisten.
- Öffentliche Zugänglichkeit: Aufzeigen, welche KI-Anwendungen dem Internet ausgesetzt sind, damit Teams die nötige Transparenz erhalten, um die Preisgabe geschützter und sensibler Informationen zu begrenzen.
Als Schöpfer von Falco, dem Open-Source-Standard für die Erkennung von Bedrohungen in der Cloud, weiß Sysdig, wie wichtig die schnelle Reaktion auf Angriffe ist. Durch die Verbesserung der Transparenz darüber, welche Anwendungen KI-Clients einbetten, um mit KI-Diensten zu kommunizieren, ermöglicht Sysdig Sicherheitsteams die Verwaltung und Kontrolle darüber, wer die hauseigene KI verwendet – sei es legitimer oder bösartiger Natur. Durch die Integration von AI Workload Security in Echtzeit mit der Unified-Risk-Discovery-Funktion des Unternehmens optimiert Sysdig die Triage und verkürzt die Reaktionszeit. Die Lösung bietet Sicherheitsteams eine konsolidierte Ansicht aller korrelierten Risiken und Ereignisse und ermöglicht einen effizienteren Workflow für die Priorisierung, Untersuchung und Entschärfung aktiver KI-Risiken.
(pd/Sysdig)