Teil 4/5

KI in der Cybersecurity: Komplize oder Kollege?

Auch Hacker sind bequem und gehen gern den einfachsten Weg. Deshalb setzen sie zunehmend auch auf Künstliche Intelligenz (KI). Severin Quell, Director IT Security Consulting und Matthias Szymansky, Director IT Consulting, beide bei der INFODAS GmbH, stellen aktuelle Angriffsmethoden vor und erläutern, wie Penetrationstests sich verändern könnten, wenn Security Analysts Kriminelle mit ihren eigenen Waffen schlagen.

KI ist nützlich, um IT-Schutzmaßnahmen wirksam zu unterlaufen – und Captchas sind ein gutes Beispiel dafür, wie intelligent KI inzwischen sein kann. Sinn der Captchas war es bisher, Interaktion mit echten Menschen von der mit Bots zu unterscheiden. Genau das wird immer schwieriger. Mittlerweile existieren KIs, die fähig sind, Captcha wie ein Mensch zu lösen.

Anzeige

Simulation von Netzwerkwerkverkehr

Künstliche Intelligenz ist inzwischen auch „klug“ genug, um Intrusion Detection (IDS), Data Leak Prevention (DLP) und Cloud Access Security Broker (CASB) zu unterwandern, typischen Netzwerkverkehr oder das Verhalten eines authentifizierten Nutzers oder seines Endgerätes simulieren und eigene Aktivitäten zu verschleiern. 

APT und Spear-Phishing durch KI noch effizienter

Mit dem „Komplizen KI“ lassen sich Angriffsintensität und Erfolgsquote von Spear-Phishing und Advanced Persistent Threats (APT) und erhöhen und der Aufwand für den Angreifer weiter verringern. KI kann für die Hacker Aufgaben übernehmen, für die vor kurzem noch menschliche Intelligenz notwendig war. Während APT oft großangelegte Angriffe sind, die beispielsweise Kritische Infrastrukturen und Behörden auf dem Radar haben und dazu viele Einzeltechniken verwenden, ist das Spear-Phishing eine konkrete Angriffstechnik, die darauf abzielt Personen zu manipulieren und die Schwachstelle Mensch auszunutzen.

Der Einsatz von KI ist in diesem Zusammenhang sehr effizient, um Soziale Netzwerke und Business-Plattformen, Onlineshops und Foren zu durchforsten, und künstliche Beziehungsnetzwerke aufzubauen. In Verbindung mit KI-gesteuerten Chat Bots sendet der Hacker Kontaktanfragen an potenzielle Opfer, um nach der Annahme weitere Informationen zu sammeln und auszuwerten. Persönliche Anschreiben mit fingierten Absenderadressen und einem auf Basis von KI trainierten Schreibstil können so täuschend echt wirken, dass die Menschen immer wieder auf Anhänge mit Schadsoftware oder Links zu gefälschten Webseiten hereinfallen.

Anzeige
Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.

Deepfakes

Die Aushebelung biometrischer Authentifizierungsverfahren, die künftig durch Fälschung oder Manipulation biometrischer Daten angreifbar werden könnten, ist die Königsklasse. Bei sogenannten Deepfakes, einer Wortkombination von Deep Learning und Fake, lassen sich Audio, Video- oder Bilddateien unter Zuhilfenahme von KI mit neuen Inhalten besetzen und täuschend echt manipulieren. Für die Herstellung von Deepfakes und das Training der Algorithmen ist eine Vielzahl an Daten nötig.

AI-Augmented Systems: Beispiel Fuzzing

Oft werden bereits vorhandene Systeme, Methoden und Techniken mit Elementen von KI verstärkt und in ihrer Wirkung noch unterstützt. Dabei ist oft von KI-angereicherten Systemen, auf Englisch: AI Augmented Systems, die Rede. Eine Technik, die sich gut mit KI anreichern lässt, ist das Fuzzing. Für Hacker ist Fuzzing eine bekannte Technik, um Schwachstellen in Systemen zu finden. Dieser Prozess, der bislang manuell durchgeführt werden, musste, ist wegen der großen Menge an möglichen Eingaben sehr aufwendig. Mit KI lässt sich dieser Prozess automatisieren, potenzielle Schwachstellen werden schneller gefunden und lassen sich damit auch schneller ausnutzen. Daher nennt man diese Methode auch AI Fuzzing.

Angriff auf die KI – durch die Hintertür

Daneben gibt es Methoden, die direkt KI-Systeme angreifen. Eine verdeckte Manipulation von Trainingsdaten durch Hinzufügen oder Entfernen von Daten wird als Machine Learning Poisoning bezeichnet. Der einfachste Typ ist die sogenannte Availability Attack. Hierbei werden so viele „schlechte” Daten hinzugefügt, dass das Modell nutzlos wird.

Gefährlicher sind Integrity Attacks, das heißt Manipulationen des Bias gegenüber bestimmten Daten, während das Modell hinsichtlich anderer Daten nicht verändert wird – eine Art Backdoor, die es erlaubt, bestimmte (schädliche) Datentypen als harmlos durchgehen zu lassen.

Werden solche KIs in Sicherheitssystemen eingesetzt, haben sie genau diese eingebauten Backdoors, die Angreifer später unbemerkt ausnutzen können. Aus diesem Grund gewinnt das Supply-Chain-Management gerade bei der KI-Entwicklung immer mehr an Bedeutung. Bei sicherheitsrelevanten Anwendungen – egal, ob es sich um Sicherheitssysteme wie IDS oder um Systeme, die hochsensible Daten verarbeiten, handelt – muss gewährleistet werden, dass der Entwicklungsprozess nachvollziehbar bleibt und Manipulationen möglichst ausgeschlossen werden.

Klar ist: Die hier aufgeführten Beispiele sind nur die Spitze des Eisbergs. KI beflügelt die Dynamik von Bedrohungen und Gefährdungen und wird mögliche schädliche Auswirkungen durch automatisierte oder autonome Prozesse weiter potenzieren.

Penetrationstests werden integraler Bestandteil einer IT-Sicherheitsstrategie

Umso wichtiger ist es, Cyberkriminelle mit ihren eigenen Waffen zu schlagen. Auch in der Cybersecurity erlaubt KI die Entlastung des menschlichen Analysten von Routineprozessen und ermöglicht die Konzentration auf die Kernaufgaben, sie lässt  Echtzeitanalysen zu und schnelle kontextbasierte Informationsauswertung. Mittlerweile sind die ersten Security Information and Event Management-Systeme (SIEM) mit KI auf dem Markt. Auch Data Loss Prevention-Lösungen (DLP) und Netzwerküberwachung mit KI-Funktionen in Echtzeit können die Sicherheit des Informationsverbundes erhöhen.

Darüber hinaus ist es wahrscheinlich, dass wir bald in der Lage sein werden, mit neuen KI-Werkzeugen zur Erkennung und Abwehr von Cyberangriffen effektiv zu arbeiten. Ein Konzept für ein solches Werkzeug beschreibt ein Frühwarnsystem für APT-Angriffe. APT funktionieren üblicherweise in aufeinander aufbauenden kleinen und sehr schwer zu entdeckenden Schritten. Gelingt es also, einen dieser Schritte zu vereiteln, bricht der gesamte Angriff in sich zusammen. Hierzu muss eine Entdeckung von APT in Echtzeit durch gleichzeitige Überwachung aller Zugänge zu Unknown Domains, maliziöse DNS (Domain Name System) und URL sowie Malware realisiert werden. Machine Learning wird eingesetzt, um harmlose sowie schadhafte Domains zu klassifizieren. Dabei gilt auch hier: je größer die Menge an qualitativ hochwertigen Trainingsdaten, desto präziser ist die Vorhersage.

Hochwertige Trainingsdaten sind längst Big Business. Organisationen mit den umfangreichsten Datenpools wie Facebook, Google und Twitter spielen hier eine entscheidende Rolle. Um mit der Deepfake Detection Challenge ein Projekt zur Programmierung eines besseren Deepfake Detektors zu fördern, hat Facebook etwa eine Partnerschaft mit Microsoft und Amazon Webservices und Universitäten begründet. An einem ersten Deepfake Detektor-Projekt beteiligten sich 2114 Teams aus aller Welt. Dazu wurden 35.000 verschiedene KI-Modelle getestet. Innerhalb eines unbekannten „Black Box“-Datensatzes mit 10.000 Videos erkannte das beste Modell mehr als 65 Prozent der manipulierten Videos. Innerhalb eines bekannten „White Box“-Datensatzes mit 100.000 Videos lag die beste Erkennungsquote bei über 82 Prozent.

Pentester müssen auch KI verstehen, programmieren und steuern können

Eines ist sicher: Das Wettrüsten zwischen Angreifer und Verteidiger geht mit KI lediglich in eine neue Runde. Einerseits können Angreifer KI einsetzen, um Schwachstellen leichter zu finden, schneller auszunutzen. Andererseits führt der Einsatz von KI zu neuen Schwachstellen. Ohne menschliche Intelligenz wird es auch auf lange Sicht deshalb keinen Schutz vor Cyberkriminellen geben. Penetrationstests sind in vielen Fällen die einzige Möglichkeit, um unbekannte Schwachstellen (rechtzeitig) zu erkennen. Im Rahmen wirksamer IT-Sicherheitskonzepte werden sie deshalb eine noch wichtigere Rolle spielen als früher. Klar ist auch: Es muss Security Analysts geben, die beides können – ihre Hackerintelligenz einsetzen und KI verstehen, programmieren und steuern. Dazu gehört unter anderem das Anlernen von KI-Systemen mit geeigneten Trainingsdaten oder die Verringerung von False Positives, also das Erkennen von falsch-positiven Warnungen sowie die Absicherung und Überwachung der KI durch menschliche Intelligenz.

Lesen Sie die ganze Serie:

Folge 1: Penetrationstests: Hacking per Auftrag

Folge 2: IT-Sicherheitsprüfungen: Sind Sie in der Verteidigung oder in der Offensive?

Folge 3: Penetrationstests: Fünf Schritte zu mehr Cybersicherheit

Severin Quell 160Severin Quell, Director IT Security Consulting INFODAS GmbH

 

 

 

 

 

Matthias Szymansky 160Matthias Szymansky, Director IT Consulting, INFODAS GmbH

Anzeige

Artikel zu diesem Thema

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.