ChatGPT war nur der Anfang – seit dem enormen Erfolg des Chatbots sind KI-Tools wie Pilze aus dem Boden geschossen und generative Funktionen zum festen Bestandteil vieler Anwendungen geworden.
Die KI beantwortet Fragen, fasst Besprechungen und lange Dokumente zusammen, erstellt Mails und Marketingtexte, optimiert Präsentationen und sogar Quellcode – und das alles binnen Sekunden in oft überraschend hoher Qualität. Damit nimmt sie Mitarbeitern einiges an Arbeit ab und befreit sie von vielen langweiligen Aufgaben.
Das Beratungsunternehmen McKinsey rechnet mit einem jährlichen Produktivitätszuwachs von 2,6 bis 4,4 Billionen US-Dollar für die Weltwirtschaft durch generative KI, vor allem in wissens- und personalintensiven Bereichen wie Kundenservice, Marketing und Vertrieb, Software-Entwicklung sowie Forschung und Entwicklung. Zum Vergleich: Das Bruttoinlandsprodukt von Deutschland lag 2022 bei umgerechnet knapp 4,1 Billionen US-Dollar.
Letztlich haben die Fähigkeiten, die ChatGPT, Bard, Jasper, Copilot und andere Tools in den vergangenen Monaten bewiesen haben, eine riesige Erwartungshaltung geweckt. Unternehmen wie Mitarbeiter brennen darauf, die smarten Helfer möglichst schnell auf breiter Front einzusetzen, doch die allzu sorglose Nutzung ist riskant. Wer beispielsweise Antworten auf Kundenanfragen von generativer KI verfassen lässt, läuft leicht Gefahr, persönliche Daten des Kunden gegenüber den Anbietern der Tools preiszugeben und gegen Datenschutzgesetze zu verstoßen. Das gilt auch für die Auswertung von Lebensläufen oder das Zusammenfassen von unbekannten Dokumenten, die ebenfalls personenbezogene Informationen enthalten können.
KI-Tools verursachen Datenrisiken
Überhaupt sollten Mitarbeiter den KITools keinerlei sensible Daten für Analysen oder Überarbeitungen anvertrauen, denn die Anfragen werden auf den Systemen der Anbieter gespeichert. Von dort können die Informationen bei einem Cyberangriff an die Öffentlichkeit gelangen oder in die Antworten für andere Nutzer einfließen. Schließlich trainieren die Anbieter ihre KI-Modelle nicht nur mit eigenen Datenbeständen und frei im Internet verfügbaren Informationen, sondern zum Teil auch mit den Eingaben der Nutzer.
Das heißt: Wer vertrauliche Finanzdaten oder eine Präsentation für eine anstehende Firmenübernahme hochlädt, füttert die Algorithmen mit neuem Wissen und muss damit rechnen, dass dieses Wissen in künftigen Ausgaben auftaucht. Wer selbst geschrieben Quellcode analysieren lässt, zeigt der KI womöglich Optimierungsmöglichkeiten auf, sodass Code-Fragmente in den Verbesserungsvorschlägen für andere Entwickler landen können.
Generative KI macht Mitarbeiter produktiver, birgt aber das Risiko, dass sensible Daten aus dem Unternehmen abfliessen.
Fabian Glöser, Forcepoint
Damit stehen Unternehmen vor einem Dilemma: Sie verlieren die Kontrolle über ihre Daten, können die KI-Tools aber auch nicht kurzerhand sperren. Zu große Dienste leisten diese bereits jetzt im Arbeitsalltag, und das, obwohl ihre Entwicklung noch ganz am Anfang steht. Dauerhaft auf sie zu verzichten, wäre – insbesondere angesichts des anhaltenden Fachkräftemangels – ein eklatanter Wettbewerbsnachteil. Zumal bestehende Security-Tools wie URL oder DNS-Filter den Zugang zwar sperren, aber nicht steuern können, welche Informationen mit den KI-Tools geteilt werden. Deshalb müssen Unternehmen andere Wege finden, die Nutzung generativer KI zu reglementieren.
Schon einfache Maßnahmen helfen
Zunächst sollten Unternehmen verschiedene zu ermitteln, die tatsächlich einen handfesten Nutzen bringen. Anschließend können sie Richtlinien aufstellen, welche Tools von welchen Nutzergruppen eingesetzt werden dürfen – sie müssen die Mitarbeiter aber in Schulungen auch über die Risiken generativer KI aufklären und für die Einhaltung der Richtlinien sensibilisieren. Wichtige Vorgaben könnten sein, dass keine sensiblen Informationen mit den Tools geteilt und dass nur vom Unternehmen bereitgestellte Accounts verwendet werden. Analog zu den inzwischen üblichen Verpflichtungserklärungen zum Datenschutz müssten Mitarbeiter eine Vereinbarung zur KI-Nutzung unterschreiben und damit die Kenntnis der Regeln bestätigen.
Trotz umfassender Aufklärung kann es allerdings passieren, dass Mitarbeiter im hektischen Arbeitsalltag sensible Informationen eingeben oder Dateien mit vertraulichen Daten hochladen. Aus diesem Grund sollten Unternehmen sicherstellen, dass sie ihre KI-Richtlinien auch technisch durchsetzen können. Am besten dafür geeignet ist ein Zero-Trust-Ansatz, der auf Sicherheitskomponenten wie Secure Web Gateway (SWG), Cloud Access Security Broker (CASB) und Data Security aufbaut.
Mittels SWG und CASB wird der Zugriff auf KI-Tools beschränkt, die von IT-Abteilung, Security-Team und Rechtsabteilung geprüft und freigegeben wurden. Nur autorisierte Mitarbeiter dürfen auf die Tools zugreifen – das aber unabhängig vom Standort oder genutzten Endgerät. Data-Security-Lösungen wiederum wachen über die Eingaben. Werden sensible Informationen entdeckt, können sie – je nachdem, wie sensibel die Daten sind – einen Warnhinweis einblenden oder die Übertragung blockieren.
Zentralisierte Ansätze sind sinnvoll
Um den administrativen Aufwand gering zu halten, sollten Unternehmen zu Sicherheitslösungen greifen, die gut zusammenspielen und einen zentralen Richtliniensatz nutzen. Das verhindert auch inkonsistente Richtlinien, die bei der Pflege von separaten Regelwerken in den einzelnen Lösungen unweigerlich entstehen und zu Verletzungen der Datensicherheit führen können.
Sinnvoll ist es zudem, nicht gleich den ganz großen Wurf zu versuchen und sämtliche Daten im Unternehmen zu klassifizieren, um deren Nutzung über Richtlinien zu regeln. Zum Start reicht es erfahrungsgemäß, sich auf die besonders kritischen Daten zu konzentrieren. Welche das sind, wissen die einzelnen Fachbereiche normalerweise sehr genau und können beispielsweise Vertragsdokumente, Kundenlisten, CAD-Modelle, Quellcode oder Tabellen und Präsentationen mit finanziellen Informationen zur Verfügung stellen. Data-Security-Lösungen analysieren diese und erkennen sie wieder, wenn sie ganz oder in Teilen aus dem Unternehmen abzufließen drohen – nicht nur über KITools, sondern auch via Mail, Chat oder Datei-Upload zu cloudbasierten Anwendungen. Selbst wenn sich die vertraulichen Inhalte in einem Screenshot verstecken, funktioniert das dank fortschrittlicher Texterkennung (OCR) extrem zuverlässig.
Ideen von außen einholen
Darüber hinaus ist es empfehlenswert, ein Governance-Framework für KI im Unternehmen aufzusetzen. Damit werden die Prozesse und Verantwortlichkeiten für die Evaluierung neuer KI-Tools, das Onboarding neuer Mitarbeiter und die Verwaltung von Berechtigungen sowie die Klassifizierung neuer Daten standardisiert und dokumentiert. Und schließlich kann die Mitarbeit in Allianzen, Verbänden und Konsortien dabei helfen, sich innerhalb der KI-Community zu vernetzen und Best Practices für eigene Initiativen und Frameworks zu erhalten.