Laut einer repräsentativen Umfrage nutzt fast die Hälfte (46 Prozent) der Berufstätigen in Deutschland ChatGPT im Arbeitsalltag. Die Beliebtheit generativer KI-Dienste und Large Language Models (LLM) stellt Unternehmen vor die Frage, inwiefern sie Sprachmodellen sensible Unternehmensdaten anvertrauen können.
Die Kaspersky-Experten haben vier Datenschutzrisiken der beruflichen ChatGPT-Nutzung identifiziert:
- Datenleck oder Hack seitens des Providers: Obwohl LLM-basierte Chatbots von großen Tech-Konzernen betrieben werden, sind sie nicht immun gegenüber Hackingangriffen oder unabsichtlichen Datenlecks. So gab es bereits einen Zwischenfall, bei dem ChatGPT-Nutzer Eingaben aus dem Nachrichtenverlauf anderer Nutzer sehen konnten.
- Datenleck durch Chatbots: Theoretisch können die Chats verwendet werden, um neue Chatbot-Modelle zu trainieren. Nutzer sollten bedenken, dass LLMs anfällig gegenüber „unabsichtlicher Speicherung“ sind; das heißt: sie können sich einzigartige Sequenzen wie Handynummern merken, die nicht die Modellqualität verbessern, aber die Privatsphäre gefährden. Alle Daten, die Nutzer in den Trainingskorpus eingegeben, können bewusst oder unabsichtlich von Anwendern desselben Sprachmodells aufgerufen werden.
- Hacking von Accounts: Angreifer können durch Phishing-Angriffe oder Credential Stuffing in Angestellten-Accounts eindringen und auf fremde Daten zugreifen. Außerdem findet die Kaspersky Digital Footprint Intelligence regelmäßig Darknet-Beiträge, die Chatbot‑Accounts zum Verkauf anbieten.
Die Nutzungsbedingungen der Erfassung, Speicherung, und Verarbeitung von Daten bei KI-Tools sind im B2B-Bereich stärker auf Schutz ausgelegt als im B2C-Sektor. Die B2B-Lösungen speichern normalerweise keine Chatverläufe und in manchen Fällen werden auch keine Daten an den Unternehmensserver gesendet, da der Chatbot lokal im Kundennetzwerk operiert.
Anna Larkina, Sicherheits- und Datenschutzexpertin bei Kaspersky kommentiert dazu:
„Das Risiko für den Verlust sensibler Daten ist am höchsten, wenn Angestellte persönliche Accounts am Arbeitsplatz verwenden. Unternehmen sollten daher ihr Hauptaugenmerk darauflegen, Mitarbeiter für die Risiken der Chatbot-Nutzung zu sensibilisieren. Einerseits müssen diese verstehen, welche Daten vertraulich oder persönlich sind, oder ein Geschäftsgeheimnis darstellen und nicht an Chatbots weitergeleitet werden dürfen. Andererseits sollten Unternehmen klare Regeln für die Verwendung dieser Dienste – wenn sie überhaupt zugelassen werden – aufstellen.“
Tipps zum Schutz der Privatsphäre im Unternehmen
- Sichere und eindeutige Passwörter für jeden einzelnen Online-Account verwenden und dabei leicht zu erratende Informationen wie Geburtstage oder Namen vermeiden.
- Vorsichtig sein bei unaufgeforderten E-Mails, Nachrichten oder Anrufen, in denen nach persönlichen Daten gefragt wird. Die Identität des Absenders überprüfen, bevor sensible Daten weitergeben werden.
- Mitarbeiter über die neuesten Online-Bedrohungen und Best Practices zum Schutz im Internet informieren.
- Regelmäßig Betriebssystem, Anwendungen und Antivirenprogramme durch Updates und Sicherheitspatches auf den neuesten Stand bringen.
- Sensible Informationen niemals mit Dritten über Social-Media-Kanäle teilen.
- Legitimität der URL-Adresse des Online-Händlers prüfen.
- Eine Sicherheitslösung mit Cloud-Service-Analytik zur Verwaltung von Cloud-Diensten und zur Bewertung von Risiken bei deren Nutzung verwenden.
www.kaspersky.de