Wie sehen Führungskräfte den Einsatz Künstlicher Intelligenz (KI) im eigenen Unternehmen? Gibt es Regeln oder werden Google Bard oder OpenAI ChatGPT im eigenen Unternehmen sicherheitskritisch und ohne Kontrolle angewendet?
Eine aktuelle Kaspersky-Studie gibt Aufschluss darüber. Demnach möchte mehr als die Hälfte der Führungskräfte (55,2 Prozent), KI-Tools in Zukunft stärker nutzen und repetitive Aufgaben automatisieren. Allerding scheint das Thema sichere Nutzung noch ausbaufähig zu sein: denn mehr als die Hälfte (54,8 Prozent) geht davon aus, dass die Mitarbeitenden im eigenen Unternehmen im Verborgenen, also unkontrolliert, KI-Lösungen bei der Arbeit nutzen.
Vor einiger Zeit waren Lösungen im Bereich generativer KI noch technologische Neuheiten, mit denen die Nutzer experimentieren konnten. Innerhalb kurzer Zeit hat sich die Technologie von einem Experiment jedoch zu einem wichtigen Arbeitswerkzeug in vielen Bereichen und Organisationen entwickelt. So plant laut aktueller Kaspersky-Studie auch mehr als die Hälfte der Führungskräfte (55,2 Prozent), KI-Tools in Zukunft stärker zu nutzen und repetitive Aufgaben, die ihre Mitarbeiter derzeit täglich erledigen, zu automatisieren. Darüber hinaus strebt ein Drittel (34,4 Prozent) der Befragten an, die IT- und Cybersicherheitsabteilungen mithilfe von generativer KI zu automatisieren.
Dabei scheint auch das Management noch in der Experimentierphase zu stecken. Auf die Frage, welche Themen auf C-Level-Ebene bezüglich generativer KI am in den vergangenen sechs Monaten am ehesten diskutiert wurden, gab nur jeder vierte Befragte (24,8 Prozent) an, sich C-Level mit Richtlinien beschäftigt zu haben, die festlegen, wie Mitarbeitende KI-Lösungen nutzen dürfen und wie hierbei mit Unternehmensdaten und personenbezogenen Informationen umzugehen ist. Dabei ist die Dynamik so groß und Risiken für die Datensicherheit von Unternehmen nicht mehr zu leugnen sind. Entsprechende Richtlinien wären jedoch von Bedeutung, da mehr als die Hälfte (54,8 Prozent) der Meinung sind, dass die eigenen Mitarbeitenden im Verborgenen, also unkontrolliert, KI-Lösungen bei der Arbeit nutzen.
Die Hälfte beunruhigt möglicher Abfluss sensibler Daten
Denn um effektiv zu arbeiten, ist generative KI auf kontinuierliches Lernen durch Dateneingabe angewiesen. Das bedeutet, dass alle Daten, die Mitarbeiter in eine KI-Anwendung wie ChatGPT oder Bard eingeben, nach außen weitergegeben. Daher ist auch nicht verwunderlich, dass die Hälfte der in Deutschland befragten Führungskräfte (50,4 Prozent) Bedenken hat, dass Mitarbeiter bei der Eingabe von Informationen in KI-Plattformen sensible Unternehmens- oder Kundendaten preisgeben könnten.
Dennoch scheint die Aussicht auf den Verlust sensibler Daten und der Kontrolle über kritische Geschäftsbereiche die Unternehmensleitung nicht davon abzuhalten, weitere KI-Einsatzszenarien zu pushen – ohne über klare Sicherheitsrichtlinien innerhalb es eigenen Unternehmens zu verfügen. Dies birgt jedoch enorme Risiken für die Unternehmen. Bevor KI in großem Umfang eingesetzt wird, sollten die Verantwortlichen in den Unternehmen genau verstehen, wie die Nutzer die Daten verwenden, insbesondere im Zusammenhang mit generativer KI. Darüber hinaus sollte es Regelwerke geben, an denen sich die Mitarbeiter orientieren können.
„Ähnlich wie BYOD bietet generative KI enorme Produktivitätsvorteile für Unternehmen. Aber während unsere Studie zeigt, dass Führungskräfte in den Vorstandsetagen die Verwendung von KI in ihren Unternehmen akzeptieren, ist das Ausmaß der Nutzung noch nicht umfassend geklärt. Da die rasante Entwicklung von Künstlicher Intelligenz anhält, wird die deren unkontrollierte Verwendung immer schwieriger zu kontrollieren und zu sichern. Das gilt in allen wichtigen Unternehmensfunktionen wie HR, Finanzen, Marketing oder sogar der IT“, so David Emm, Principal Security Researcher bei Kaspersky. „Bevor die Technologie eingesetzt wird, ist es zwingend erforderlich, dass vor jeder weiteren Integration von generativer KI in die Unternehmensumgebung ein umfassendes Verständnis des Datenmanagements und die Implementierung robuster Richtlinien vorhanden ist.“
www.kaspersky.de