Large Language Models (LLMs) sind anfällig für Manipulation und Datenabflüsse. Der sichere Betrieb in einer souveränen Cloud schafft Abhilfe.
Die Integration von Künstlicher Intelligenz (KI) und insbesondere von Large Language Models (LLMs) bietet Unternehmen in vielen Bereichen enorme Chancen, etwa bei der Identifikation oder Analyse von Daten. Doch der Einsatz von KI-Anwendungen ist auch mit erheblichen Herausforderungen verbunden – vor allem dann, wenn sensible Daten wie interne Informationen, Finanz,- Projekt- oder personenbezogene Daten im Spiel sind. Denn klassische LLMs sind anfällig für Manipulationen und Datenlecks. Eine Möglichkeit, diesen Risiken zu begegnen, ist der Betrieb in einer hochsicheren, souveränen Cloud.
Herausforderung Datensicherheit
LLMs sind anhand riesiger Datenmengen trainierte leistungsstarke KI-Modelle, die in der Lage sind, authentische Texte zu generieren und natürliche Sprache zu verarbeiten. Anwendung finden sie in Bereichen wie der automatischen Übersetzung, der Textgenerierung oder der Analyse großer Datenmengen. Zu den bekanntesten LLMs gehören die GPT-Modelle von OpenAI, Mistral von Mistral AI und LLaMA von Meta. Sie ermöglichen es Unternehmen, komplexe sprachliche Aufgaben zu automatisieren und Prozesse zu beschleunigen.
Bei all ihrer Leistungsfähigkeit bergen LLMs allerdings auch erhebliche Risiken, insbesondere bei der Verarbeitung sensibler Informationen:
- Unautorisierte Zugriffe auf Trainingsdaten oder Modelle: Angreifer können sich unter Umständen direkt Zugang zu den Trainingsdaten oder dem LLM verschaffen und auf sensible Informationen zugreifen.
- Modellmanipulation: Potenzielle Hacker könnten versuchen, das Modell oder die Trainingsdaten direkt zu manipulieren, um bestimmte Ergebnisse zu beeinflussen.
- Risiko von Datenabflüssen während der Nutzung des Modells: Auch ohne direkten Zugriff auf die Modell- oder Trainingsdaten besteht das Risiko, dass sich durch Anfragen an die KI Rückschlüsse auf sensible Informationen ziehen lassen.
- Operational Complexity: Die Bereitstellung und Wartung einer KI-Cloud erfordert ein hohes Maß an technischer Expertise, da die Hardware komplex ist, schnell veraltet und ständig aktualisiert werden muss. Ohne ein derartiges Know-how entstehen leicht Sicherheitslücken, die möglichen Angreifern Tür und Tor öffnen.
Geht es um den sicheren Betrieb von KI-Anwendungen, stoßen herkömmliche Cloud- und On-Premise-Ansätze also schnell an ihre Grenzen. Zusätzlich erforderliche Maßnahmen, die dafür sorgen sollen, dass Compliance-Vorgaben erfüllt und keine Sicherheitslücken vorhanden sind, erschweren den Einsatz von LLMs noch weiter – vor allem in streng regulierten Branchen wie dem Finanz-, Rechts- und Gesundheitswesen.
Souveräne Cloud schafft Abhilfe
Genau hier soll der Betrieb in einer souveränen Cloud Abhilfe schaffen. Unter diesem Begriff versteht man einen Cloud-Dienst, der strengsten Sicherheitsanforderungen genügt und vor unbefugten Zugriffen geschützt ist – seien es solche durch externe Angreifer, staatliche Instanzen (deren Zugang zu den Daten z. B. durch Gesetze wie den US CLOUD Act geregelt ist) oder interne Risikofaktoren wie Administratoren mit umfassenden Zugriffsrechten.
Ausschlaggebend für eine souveräne Cloud ist, dass sie Datensouveränität (die vollständige Kontrolle des Nutzers über seine Daten) und Datenintegrität (die Unversehrtheit und Korrektheit der Daten) jederzeit sicherstellt. Viele Anbieter scheitern jedoch daran, diese hohen Anforderungen durchgängig zu gewährleisten – was insbesondere in Bereichen mit strengen Datenschutzauflagen problematisch ist.
Schutz sensibler Daten dank Confidential Computing
Um auch Branchen mit höchsten Sicherheitsvorgaben zu genügen, muss ein Cloud-Dienst wesentlich mehr als die üblichen Schutzvorkehrungen aufweisen. Entscheidend ist, dass die Daten in sämtlichen Phasen der Verarbeitung umfassend geschützt sind: Nicht nur bei der Übertragung („Data in Transit“) und Speicherung (“Data at Rest“), sondern auch während der aktiven Verarbeitung („Data in Use“).
Souveräne Clouds setzen daher auf mehrstufige Sicherheitskonzepte, zu denen neben dem Betrieb in hochsicheren Rechenzentren auch eine geschützte Datenverarbeitung gehört, wie sie etwa die Sealed-Cloud-Technologie gewährleisten kann. Diese proprietäre Server-Technologie verhindert durch einen Confidential-Computing-Ansatz nachweislich jegliche unbefugten internen wie externen Zugriffe – selbst diejenigen eines Administrators oder des Cloud-Anbieters.
Dieses hohe Sicherheitsniveau ermöglicht einerseits den zuverlässigen Schutz vertraulicher Informationen bei der Zusammenarbeit in der Cloud, andererseits den sicheren Betrieb von Diensten wie Collaboration-Tools oder komplexen KI-Modellen. Auf diese Weise ist es beispielsweise möglich, sensible Daten durch eine KI analysieren zu lassen und dem Anwender die Ergebnisse zurückzuspielen, ohne dass der Betreiber des Dienstes oder unbefugte Dritte selbst jemals Zugang zu den Daten oder Analyseergebnissen haben. Die Integrität der Daten ist jederzeit gewährleistet und die volle Kontrolle über die Daten bleibt immer beim Kunden.
Praxisbeispiel: Sichere KI-Integration in eine souveräne Cloud-Umgebung
Um KI in einer sicheren Umgebung nutzen zu können, gilt es zunächst, die passende Hardware innerhalb der souveränen Cloud bereitzustellen. Dies erfordert den Aufbau eines dedizierten KI-Clusters. Der nächste Schritt ist die Integration frei verfügbarer Open Source LLMs wie LLaMA oder Mistral, die es anschließend in der sicheren Umgebung der souveränen Cloud zu trainieren und durch Feintuning an die spezifischen Bedürfnisse der Anwender anzupassen gilt.
Der gesamte Prozess von der Verwaltung der Trainingsdaten über das eigentliche Training bis hin zur Nutzung des Modells kann vollständig innerhalb der souveränen Cloud stattfinden. Dies gewährleistet nicht nur einen umfassenden Schutz vor Manipulation oder Datenabfluss, sondern sorgt auch dafür, dass die Prompts – also die Eingaben an das Modell – innerhalb der sicheren Umgebung verbleiben.
Typische KI-Anwendungsfälle in einer solchen sicheren Umgebung wären beispielsweise die „Kommunikation“ mit Dokumenten oder die Anhäufung von Informationen. Darüber hinaus sind komplexere Anwendungen denkbar, wie z. B. Assistenzfunktionen für die digitale Gremien- oder Aufsichtsratskommunikation.
Ebenfalls vorstellbar wäre es, den KI-Cluster in einem nächsten Schritt als Platform-as-a-Service bereitzustellen und es Unternehmen so zu gestatten, eigene KI-Anwendungen in einer hochsicheren Umgebung zu entwickeln sowie zu betreiben. Die volle Kontrolle über Trainingsdaten, Modelle und Abfragen bliebe dabei zu jedem Zeitpunkt gewährleistet.
Fazit: Versiegelung sorgt für KI-Sicherheit in der Cloud
Ist ein KI-System in einen souveränen Cloud-Dienst wie idgard eingebunden, der einen modernen Sicherheitsansatz wie Confidential Computing nutzt, trägt dies zu einem erheblich reduzierten Risiko von Angriffen beim Einsatz von KI bei. Dies verhindert wirksam den unautorisierten Zugriff auf Modelle, Trainingsdaten und Anfragen und senkt deutlich die Gefahr von Manipulationen an den Modellen.
Dank der innovativen Sicherheitsarchitektur der Sealed-Cloud-Technologie lassen sich LLMs und weitere KI-Anwendungen betreiben und weiterentwickeln – ohne Abstriche bei Sicherheit oder Betriebseffizienz. Dies schafft nicht nur eine stabile Basis für bestehende KI-Lösungen, sondern auch für neue Innovationen – gerade in regulierten Branchen wie dem Finanz-, Rechts- und Gesundheitswesen, die höchste Anforderungen an Datenschutz und Datensicherheit stellen.