Welche Trends Unternehmen 2024 bei der Cybersecurity erwarten und wie sie sich darauf vorbereiten können.
Die rasante Entwicklung der generativen KI im Jahr 2023 bot den Fachkräften beispiellose Möglichkeiten. Prozesse können einfacher rationalisiert, die Produktivität gesteigert und Innovationen vorangetrieben werden. Mitten in dieser Transformationswelle ist jedoch das Schreckensgespenst der Cyber-Bedrohungen allgegenwärtiger und raffinierter geworden, was eine strategische Neubewertung der Sicherheitsmaßnahmen erfordert. Indem Unternehmen gleichzeitig zunehmend APIs nutzen, steigen auch die damit verbundenen Sicherheitsrisiken.
Die Cybersecurity-Experten von Imperva, ein Unternehmen im Bereich IT-Sicherheit, zeigen vier Cybersecurity-Trends auf, auf die Unternehmen 2024 gefasst sein sollten:
1. Unkoordinierte Cybersecurity-Teams – Einfallstor für Hacker. Im kommenden Jahr werden Unternehmen mit den Folgen isolierter/unkoordinierter Cybersecurity-Teams und schlechter Kommunikation zwischen den Entwicklungs-, Sicherheits- und anderen Teams zu kämpfen haben. Diesen Mangel an Koordination werden sich Bedrohungsakteure zu Nutze machen und kombinierte Angriffe durchführen. Verstärkt wird das Phänomen durch den Einsatz von generativer KI, die Angriffe erstellt, wiederholt und ausführt. Um dieses Risiko zu minimieren, müssen Cybersecurity-Experten die Zusammenarbeit und gemeinsame Verantwortung in den Vordergrund stellen.
2. Generative KI – Realitätscheck in Unternehmen. Der Hype um die generative KI wird im Jahr 2024 auf den Prüfstand gestellt. Es ist unvermeidlich, dass die KI-Entwicklung weiter an Fahrt aufnehmen wird. Doch wie bei den meisten Technologien bringt ihre Einführung neben zahlreichen Vor- auch viele Nachteile mit sich. Es ist mittlerweile kein Geheimnis mehr, dass die generative KI u. a. dazu beiträgt, die Produktivität und den Output von Entwicklern zu steigern, indem mehr Routineaufgaben automatisiert und Projekte effizienter abgeschlossen werden können. Dieselben Tools werden allerdings auch dazu beitragen, dass sich „Script-Kiddies“ von unreifen, unerfahrenen Angreifern zu erfahrenen Hackern entwickeln, die in der Lage sind, neue und ausgefeiltere Angriffe durchzuführen.
Gleichzeitig müssen sich Unternehmen und Verbraucher dem „AI Washing“ bewusstwerden – dem fälschlichen Werben damit, dass Unternehmen KI in ihre Produkte oder Dienstleistungen integriert haben. Verbraucher werden so in die Irre geführt. Die Industrie muss sich dieser zweischneidigen Realität stellen und auf diese Risiken reagieren.
3. 2024 – das Jahr, in dem Unternehmen (endlich) aufwachen und API-Risiken erkennen! Im Jahr 2024 werden APIs explosionsartig weiter zunehmen. Durchschnittlich produziert ein Unternehmen Hunderte von APIs, wie Untersuchungen zeigen. Doch einige Unternehmen produzieren derweil mehr als 1.000 APIs. Unternehmen werden sich mit der Tatsache abfinden müssen, dass sie einen proaktiveren Ansatz verfolgen müssen, um ihre APIs zu sichern.
Die Herausforderung besteht darin, dass viele Unternehmen nicht über die richtigen Schutzmaßnahmen oder Kontrollen verfügen. Sie wissen nicht, wo ihre APIs verwendet werden oder auf welche Daten sie zugreifen. Dadurch sind sie Risiken ausgesetzt, die sie nicht einschätzen oder auch nur annähernd quantifizieren können. Wenn 2024 der Druck weiter steigt, API-bezogene Sicherheitsvorfälle zu verhindern, werden Sicherheitsverantwortliche nach Lösungen suchen müssen. Und dabei werden sie in Lösungen investieren, die sich nahtlos in ihren bestehenden Technologie-Stack für Anwendungssicherheit integrieren lassen.
4. Datensicherheit – 2024 wichtiger denn je. Da die „Macht“ der KI von intelligenten Daten abhängt, werden Unternehmen im Jahr 2024 erkennen, dass Datensicherheit wichtiger ist als je zuvor. Jahrelang haben Unternehmen Daten gehortet. Viele dieser gehorteten Daten sind nun unbekannt und schwer zu sichern. Dieser Mangel an Kontrolle erhöht jedoch das Risiko, ohne im Gegenzug einen Mehrwert zu schaffen. Gleichzeitig sind einige Unternehmen fälschlicherweise davon ausgegangen, dass sie viele ihrer Daten nicht schützen müssen. Sie haben nur den als hochsensibel eingestuften Daten Priorität eingeräumt. Ihre „risikoarmen“ Daten – z.B. öffentlich zugängliche Daten – haben sie jedoch vernachlässigt. Was nicht nur falsch, sondern auch gefährlich ist.
KI-Systeme, insbesondere leistungsfähige Sprachmodelle wie GPT, stützen sich auf diese Daten, um Vorhersagen und Entscheidungen zu treffen. Es könnte sich für Unternehmen rächen, wenn sie an ungenutzten – und vor allem veralteten oder ungenauen – Daten festhalten. Verstärkt wird dieses Risiko noch durch die „Schatten-KI“. Bei dieser wissen die Unternehmen nicht, wie ihre Mitarbeiter KI-Anwendungen nutzen und welche Daten sie in die zugrundeliegenden Modelle einspeisen.
Die Unternehmen müssen dringend die Kontrolle über ihre Daten zurückgewinnen. Sie müssen wissen, wo sie sich befinden, wie sie verwendet werden und ob sie überhaupt gespeichert werden müssen.
www.imperva.com/de/