Am 28. Januar 2024 ist Europäischer Datenschutztag. In dem Zusammenhang gilt es, das Bewusstsein für Privatsphäre sowie Datenschutz zu schärfen und für relevante IT-Sicherheitsfragen zu sensibilisieren – egal ob diese das private oder unternehmerische Umfeld betreffen.
Für den IT-Security-Anbieter WatchGuard steht in diesem Jahr insbesondere das Thema “KI” im Fokus. Denn Anwendungen auf Basis von KI nehmen im Alltag vieler Menschen und Unternehmen jeder Branche eine immer stärkere Rolle ein. Entsprechend sollte damit einhergehenden Sicherheitsaspekten Aufmerksamkeit geschenkt werden.
Ein Zitat von Carla Roncato, Vice President of Identity, WatchGuard Technologies
„Die Fortschritte im Bereich der künstlichen Intelligenz (KI) und des maschinellen Lernens (ML) sind am Datenschutztag 2024 ein offensichtliches Thema – sowohl aufgrund der potenziellen Vorteile, die entsprechende Werkzeuge mit sich bringen, als auch wegen der damit einhergehenden Gefahren, die durchaus für Beunruhigung sorgen. In Anbetracht der weiten Verbreitung von KI-Tools allein im letzten Jahr ist es von entscheidender Bedeutung, dass wir als Vertreter der IT-Security-Gemeinschaft diese Gelegenheit nutzen, um für die Risiken, die von KI im Hinblick auf den Schutz unserer Daten ausgehen, zu sensibilisieren und das Verständnis dafür zu vertiefen. KI hält immer mehr Einzug in unserem Alltag und tangiert damit nicht zuletzt unserer aller Recht auf Datenschutz.
Unternehmen wie Einzelanwender sollten eines niemals vergessen: Wenn ein von ihnen genutzter Dienst ‚kostenlos‘ ist, dann geht es am Ende wahrscheinlich um Daten, die im Gegenzug als ‚Preis‘ aufgerufen werden. Dies gilt auch für KI-Tools, also sollte jeder entsprechend handeln. Viele frühe KI-Dienste und -Anwendungen – darunter auch ChatGPT – verwenden ein Nutzungsmodell, das dem von Social-Media-Plattformen wie Facebook und TikTok ähnelt. Anwender zahlen zwar kein Geld für die Nutzung dieser Plattformen, aber sie entschädigen die Anbieter durch Zustimmung hinsichtlich der Weitergabe von privaten Daten. Diese nutzen Unternehmen beispielsweise dazu, um mit gezielter Werbung zu Geld machen. In ähnlicher Weise kann ein kostenloser KI-Dienst Daten von Geräten sammeln, die individuellen Eingabeaufforderungen speichern und diese Daten dann verwenden, um sein eigenes Modell zu trainieren. Dies mag zwar nicht bösartig erscheinen, aber genau deshalb ist es so wichtig, zu wissen, was passiert und inwieweit die Verarbeitung der gesammelten Daten zum Trainieren generativer KI-Algorithmen Datenschutzfragen aufwirft. Nur mal angenommen, eines dieser Unternehmen wird gehackt und Daten geraten in die falschen Hände: Dann lassen sich genau solche individuellen Informationen geschickt als Waffe ausspielen.
Natürlich hat die KI auch Vorteile. In der Tat sind viele KI-Tools recht leistungsfähig und können mit den richtigen Vorsichtsmaßnahmen sicher eingesetzt werden. Die Risiken, die sich für Unternehmen im Zuge der geschäftlichen Nutzung ergeben, hängen vor allem von den jeweiligen Aufgaben, Zielstellungen und verwendeten Daten ab. Im Bereich der Sicherheit beginnt alles mit einer Richtlinie, was bedeutet, dass Organisationen letztendlich auch klare KI-Vorgaben definieren müssen, die auf den speziellen Anwendungsfall ihres Unternehmens zugeschnitten ist. Sobald diese festgelegt sind, besteht der nächste Schritt darin, die Mitarbeiterschaft darüber zu informieren und für die Risiken ein Bewusstsein zu schaffen. Zudem gilt es, die Regeln entsprechend anzupassen, sobald veränderte Rahmenbedingungen vorliegen, beispielsweise in Form neuer Regularien. Eine regelmäßige Kommunikation mit der Belegschaft ist in dem Zusammenhang entscheidend.“
www.watchguard.com