KI gegen KI: Schutz vor ChatGPT-Bedrohungen

KI, ChatGPT, künstliche Intelligenz, Cyber Crime
Quelle: Rokas Tenys / Shutterstock.com

Bedenken rund um den Einsatz neuer Technologien gibt es immer. Doch generative künstliche Intelligenz (KI) wie ChatGPT bringt ein besonders hohes Maß an Verunsicherung mit sich – vor allem auch wegen ihrer möglichen Auswirkungen auf die Cybersicherheit.

Bei der am schnellsten wachsenden Verbraucher-App aller Zeiten – ChatGPT von OpenAI – mahnt selbst die Technologiebranche zur Zurückhaltung. Bisher hatte noch keine Innovation ein derart großes Umwälzungspotenzial – und das gilt nicht nur für ihren Einsatz in der Geschäftswelt, sondern auch für unser tägliches Leben. Führende Unternehmen von Goldman Sachs bis Apple haben dazu aufgerufen, die Entwicklung generativer KI zu beschränken, weil sie die Verbreitung von Falschinformationen und den Verlust von Arbeitsplätzen fürchten. Einige Firmen verbieten ihren Mitarbeitern sogar die Verwendung der Technologie. Die größten Bedenken dürften es jedoch bei der Cybersicherheit geben.

Anzeige

Ein Tool, das in der Lage ist, Cyberangriffe aktiv zu unterstützen, Quellcode preiszugeben und die Einhaltung gesetzlicher Auflagen durch „automatisierte Entscheidungsfindung“ zu gefährden, kann schnell zum Problem werden. Schon jetzt ist es nahezu unmöglich, sämtliche Aspekte und Risiken generativer KI zu überblicken.

Unternehmen sollten deshalb erwägen, ihre eigene Verteidigungsstrategie gegen Cyberangriffe ebenfalls mit KI zu stärken.

Eine neue Angriffsfläche für Cyberkriminelle

KI-generierte Bilder, Sprachaufnahmen und Videos sind nur einige der Taktiken, für die Cyberkriminelle auf generative künstliche Intelligenz setzen. Denn mit ihrer Unterstützung können Phishing-Angriffe glaubwürdiger wirken – und dadurch Nutzer dazu verleiten, Sicherheitsschwachstellen offenzulegen. Hacker, die sich Zugriff auf Chat-Verläufe verschaffen, finden dort vertrauliche Informationen vor und können etwa personenbezogene Informationen abgreifen, geistiges Eigentum stehlen, Unternehmensinformationen ausspionieren oder ihre Social Engineering- und Phishing-Angriffe verfeinern.

Anzeige

Die Gefahr durch generative KI besteht auch im Datenverlust aufseiten des Anbieters, wie etwa OpenAI oder Microsoft. Kürzlich setzten Cyberkriminelle ChatGPT ein, um die Sniffer-Malware Infostealer zu verbessern und sich als ChatGPT-Windows-Client auszugeben. Dieser gefälschte Client war in der Lage, in Google Chrome gespeicherte Anmeldedaten zu kopieren. Die Kriminellen bildeten die ChatGPT-Oberfläche nach und erstellten einen Datensammlungsordner, aus dem sie später im Hintergrund vier Millionen Sätze von Anmeldedaten extrahierten – ohne das Wissen der Benutzer.

Generative KI steigert die Produktivität von Cyberkriminellen

Das vielleicht folgenreichste Sicherheitsrisiko durch generative KI besteht in ihrer Fähigkeit, die komplexen Prozesse zu automatisieren, die zur Durchführung von Cyberangriffen erforderlich sind. So hilft sie Angreifern, effizienter zu arbeiten. Und mit Tools für generative KI können selbst unerfahrene Cyberkriminelle Schäden anrichten.

An zweiter Stelle steht die Möglichkeit, verblüffend menschenähnliche Reaktionen zu generieren. Im März patchte ChatGPT einen Bug, der die erste öffentlich bekannt gewordene Datenpanne verursacht hatte, bei der zahlungs- und personenbezogene Daten von aktiven ChatGPT Plus-Nutzern exponiert wurden.

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.

Datenschutz bleibt ein menschliches Problem

Wie der Infostealer-Angriff belegt, ist die Schwachstelle Nutzer nach wie vor der beste Einstiegspunkt für Cyberkriminelle. Über 95 Prozent der Datenpannen gehen auf menschliches Versagen zurück. Während Entscheidungsträger und Führungskräfte im Technologiebereich sich noch über passende Richtlinien für generative KI beraten, haben 59 Prozent der Großunternehmen ein Tool für generative KI entweder bereits erworben oder planen die Anschaffung noch in diesem Jahr.

Nicht alle der zahlreichen verfügbaren Apps für generative KI sind vonseiten des Anbieters mit geeigneten Sicherheitsfunktionen ausgestattet. Der Infostealer-Angriff war auf mangelnde Cybersicherheitsmaßnahmen zurückzuführen. Wie bei anderen Angriffstypen auch sollten Benutzer zunächst die Legitimität der Anwendung sicherstellen, indem sie sich vor dem Herunterladen über die offiziellen Kommunikationskanäle des Anbieters vergewissern, dass ein solcher Client oder ein solches Plug-In tatsächlich existiert. Eine Handvoll CISOs haben ihr Unternehmen bereits auf Lösungen umgestellt, die mithilfe von Zero Trust-Modellen und Low-Level-KI-Tools den Risikofaktor Mensch ausgleichen.

Mit Low-Level-KI gegen KI

Über die Aufklärung der Mitarbeiter hinaus sollten Unternehmen bei ihren Cybersicherheitsmaßnahmen auf diversifizierte, mehrschichtige Softwarestacks setzen. Aktuelle Cyberangriffe sind oft so konzipiert, dass sie von der Cloud direkt in das Betriebssystem des Rechners, in Endgeräte und in die SSD-Firmware eindringen können. Zwar dient der Bereich zwischen Anwendungsebene und Netzwerkebenen der Verteidigung der Daten, jedoch kann eine Schwachstelle in der Hardware-Ebene diese Bemühungen zunichtemachen.

Low-Level-KI, die auf der untersten, also der physischen Ebene, bereitgestellt wird, ist ein neuartiger Ansatz, bei dem es darum geht, durch die Absicherung aller OSI-Schichten für größtmöglichen Schutz zu sorgen. Auf diesem Hardwarelevel stellen KI-gestützte Lösungen sicher, dass Hacker, denen es gelungen ist, andere Schutzmaßnahmen zu umgehen, beim Versuch, auf den Datenspeicher zuzugreifen, letztendlich scheitern.

Solche hardwarebasierten Cybersicherheitslösungen wirken in nächster Nähe zu den Daten und bekämpfen Bedrohungen in Echtzeit. Sie verkleinern die Angriffsfläche für Cyberkriminelle drastisch, unabhängig vom Ausgangspunkt der Angriffe.

Denn auf der physischen Ebene müssen sich auch die raffiniertesten Angreifer auf eine eingeschränkte Umgebung einstellen. Der integrierten Low-Level-KI steht nur ein klar abgegrenzter, spezifischer Satz von programmierten Befehlen für Analyse und Reaktion bereit. Ein solcher feinjustierter Erkennungsalgorithmus kann Hacker enttarnen, und er funktioniert genau, schnell und ohne menschliches Eingreifen.

Neue Möglichkeiten für die Cybersicherheit

Cloud, Blockchain und jetzt generative KI haben die Angriffsfläche für Cyberkriminelle deutlich vergrößert. Zu viele Unternehmen setzen immer noch ausschließlich auf reaktive, softwarebasierte Abwehrlösungen statt auf mehrschichtige Abwehrstrategien, die Software und Hardware umfassen.

Unternehmen, die alle sieben Schichten des OSI-Modells adäquat schützen und zudem spezifische Sicherheitsrichtlinien für den Einsatz generativer KI-Tools implementieren, haben weit bessere Chancen, ihre Risiken zu mindern und eine langfristig robuste Cyberabwehr zu schaffen.

Der Hype um generative KI darf nicht vom Kernproblem ablenken: Ein ganzheitlicher, robuster Schutz ist unerlässlich. Unabhängig davon, inwieweit KI gesetzlich reguliert wird: Es liegt allein in der Verantwortung von Unternehmen, ihre eigenen Daten und die Daten ihrer Kunden zu schützen.

Camellia Chan Flexxon

Camellia

Chan

CEO und Gründerin

Flexxon

Camellia Chan ist CEO und Gründerin von X-PHY, einer Marke von Flexxon. Seit der Gründung im Jahr 2007 hat Camellia Flexxon zu einem internationalen Unternehmen mit Niederlassungen in über 50 Städten ausgebaut. Flexxon entwickelt seine zentrale Suite von Cybersicherheitsservices unter der Marke X-PHY ständig weiter.
Anzeige

Artikel zu diesem Thema

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.