Active Directory (AD) ist ein beliebter Verzeichnisdienst, den 90 Prozent aller Unternehmen zum Verwalten ihrer IT-Ressourcen nutzen. AD wird für die Authentifizierung, Autorisierung und Abrechnung von Benutzern, Computern und anderen Ressourcen in einem Netzwerk verwendet. Aus diesem Grund ist AD auch ein bevorzugtes Ziel für Angreifer, die sich Zugang zu sensiblen Informationen oder Ressourcen verschaffen wollen.
Bis vor Kurzem mussten Angreifer mehreren Angriffstools und -techniken beherrschen und verschiedene Authentifizierungs- und Autorisierungsprotokolle kennen, um in die AD-Infrastruktur eines Zielunternehmens einzudringen. Mit der Einführung von ChatGPT, einer öffentlich zugänglichen generativen KI, können jedoch selbst unerfahrene Bedrohungsakteure ernst zu nehmende Angriffe durchführen.
ChatGPT kann aber auch dazu verwendet werden, IT-Security-Experten die Arbeit zu erleichtern, da sie wichtige Zeit für den Schutz ihrer Umgebungen einsparen und die Auswirkungen einer möglichen Kompromittierung minimieren können. Schadet diese Technologie also der Sicherheit von AD oder nutzt sie ihr?
Was ist generative KI?
Generative KI kann neue und originelle Inhalte wie Bilder, Texte oder Audios erstellen. Im Gegensatz zu anderen Arten von KI, die dafür ausgelegt sind, Muster zu erkennen und Vorhersagen auf Basis vorhandener Daten zu treffen, wird die generative KI darauf trainiert, neue Daten basierend auf den aus den Trainingsdaten gewonnenen Erkenntnissen zu erzeugen. Dazu werden in der Regel tiefe neuronale Netze verwendet, die die Arbeitsweise des menschlichen Gehirns nachahmen sollen.
Die Entwicklung generativer KI lässt sich bis zu den Anfängen der Forschung im Bereich der künstlichen Intelligenz in den 1950er und 1960er Jahren zurückverfolgen. Damals beschäftigten sich Forscher bereits mit der Idee, Computer zur Erzeugung neuer Inhalte wie Musik oder Kunst einzusetzen.
Doch erst in den 2010er Jahren nahm generative KI dank der Entwicklung von Deep-Learning-Techniken und der Verfügbarkeit großer Datensätze richtig Gestalt an. Im Jahr 2014 veröffentlichte ein Forscherteam von Google eine Arbeit über die Verwendung von tiefen neuronalen Netzen zur Erzeugung von Bildern. Dieses Ereignis galt als Durchbruch auf diesem Gebiet.
Seither wurde im Bereich der generativen KI viel geforscht. Es wurden viele neue Anwendungen und Techniken entwickelt. Heute ist generative KI ein sich schnell entwickelnder Bereich, in dem es regelmäßig zu neuen Durchbrüchen und Innovationen kommt.
Was ist ChatGPT?
ChatGPT ist ein von OpenAI entwickeltes, groß angelegtes textbasiertes Dialogsystem. Das Modell basiert auf der GPT-Architektur (Generative Pre-trained Transformer) und wurde mit einer großen Menge an Textdaten unter Verwendung von unbeaufsichtigten Lerntechniken trainiert. ChatGPT kann menschenähnliche Antworten auf textbasierte Aufforderungen generieren, was es zu einem nützlichen Tool für eine Reihe von Anwendungen macht, darunter Chatbots, Sprachübersetzung und Frage-Antwort-Systeme.
Die erste Version von ChatGPT wurde im Juni 2020 öffentlich zugänglich gemacht. OpenAI hat in einem Blogbeitrag die Einführung des Modells angekündigt und dessen Fähigkeiten demonstriert.
Seitdem hat OpenAI ChatGPT immer weiter optimiert und verbessert und neue Versionen mit größeren Modellen und ausgeklügelteren Funktionen herausgebracht. Die neueste Version von ChatGPT (Stand September 2021) ist GPT-3. Sie enthält 175 Milliarden Parameter und gilt als eines der fortschrittlichsten (und beliebtesten) Sprachmodelle der Welt (Bild 1).
Bild 1: Ein Post von Linas Beliunas, in dem er die Wachstumsgeschwindigkeit der Benutzerbasis wichtiger technologischer Fortschritte vergleicht. Dieser Post verbreitete sich rasend schnell, da immer mehr Menschen von ChatGPT und seinen Möglichkeiten erfuhren.
Wie können sich Bedrohungsakteure ChatGPT zunutze machen?
ChatGPT soll die Art und Weise, wie wir mit Maschinen interagieren, revolutionieren und uns einer Welt näherbringen, in der Menschen und Computer nahtlos miteinander kommunizieren können. Die öffentliche Zugänglichkeit der Betaversion ermöglicht es Bedrohungsakteuren jedoch, diese Technologie für ihre eigenen Zwecke zu nutzen. Wie tun sie das?
Phishing-Websites and -Apps
Phishing-Websites gibt es schon seit den Anfängen des Internets. Die ersten Phishing-Angriffe erfolgten ausschließlich per E-Mail. Da Menschen immer besser in der Lage waren, verdächtige E-Mails zu erkennen und zu meiden, haben sich Angreifer darauf verlegt, gefälschte Websites zu erstellen, die legitime Websites imitieren, um Anmeldedaten oder persönliche Informationen zu stehlen. Bei diesen Versuchen werden häufig neue Trends in verschiedenen Bereichen ausgenutzt, um ahnungslose Opfer zu ködern. Mit der Einführung von Smartphones etwa kamen Phishing-Kampagnen mit bösartigen mobilen Anwendungen auf.
Seit der Veröffentlichung von ChatGPT – und dem anschließenden Hype – haben sich mehrere Phishing-Kampagnen als ChatGPT-Websites und mobile Anwendungen getarnt. Bei diesen Kampagnen werden Besucher aufgefordert, Malware herunterzuladen und zu installieren oder sogar Kreditkartendaten anzugeben. Die Websites und Apps werden häufig über Profile und Anzeigen in sozialen Medien verbreitet, um die Zahl der Opfer zu maximieren.
Phishing-Kampagnen unter Verwendung von ChatGPT
Sowohl Angreifer als auch IT-Security-Experten wissen, dass Phishing-E-Mails nach wie vor zu den effektivsten Angriffsvektoren gehören. Wichtiger Bestandteil jeder Phishing-Kampagne ist ein wirksames, glaubwürdiges Pretexting: Das Vorgaukeln einer Situation, die das Opfer zur Preisgabe vertraulicher Informationen verleitet. Dabei soll in der Regel ein Gefühl der Dringlichkeit oder Wichtigkeit vermittelt werden.
Ein Angreifer kann sich beispielsweise als vertrauenswürdige Autoritätsperson ausgeben, z. B. als Bankvertreter oder IT-Support-Mitarbeiter. Unter dieser angenommenen Identität informiert der Angreifer das anvisierte Opfer über eine angebliche Sicherheitsverletzung oder eine drohende Kontosperrung. Der Angreifer fordert dann Anmeldedaten oder andere persönliche Informationen des Opfers an, angeblich, um die Bedrohung abzuwenden.
Pretexting ist eine gängige Taktik bei Phishing-Kampagnen und kann schwer zu erkennen sein. Der Angreifer kann zuvor umfangreiche Nachforschungen angestellt haben, um eine überzeugende Geschichte zu entwickeln. Es gibt jedoch verräterische Anzeichen, oft Rechtschreib- und Grammatikfehler sowie ungewöhnliche Formatierungen und Syntax.
Mehrere Bedrohungsakteure nutzen jetzt ChatGPT für das Pretexting. Zwar kooperiert ChatGPT nicht mit Abfragen, bei denen es aufgefordert wird, einen glaubwürdigen Vorwand für eine Phishing-Kampagne zu erstellen, aber es ist einfach, einen Weg zu finden, um diese Einschränkung zu umgehen, wie die Bilder 2 und 3 zeigen. Die generativen KI-Funktionen von ChatGPT scheinen sich perfekt für Pretexting zu eignen, wodurch die Erfolgsquote von Phishing-Kampagnen erhöht wird.
Angriffsketten unter Nutzung von ChatGPT
Bedrohungsakteure können ChatGPT auch nutzen, um selbst mit nur geringen technischen Kenntnissen schwerwiegende Angriffe auf ein Zielunternehmen durchzuführen. Die „Unterhaltung“ in den Bildern 4 und 5 veranschaulicht, wie mit ChatGPT kommuniziert werden kann, um eine Angriffsmöglichkeit zu bestimmen.