Interview mit Boris Cipot, Synopsys

Cyberangriffe auf KI-Basis

Ob es sich bei Cyberangriffen bereits heute um reale Bedrohungen handelt und womit wir in der Zukunft zu rechnen haben, dazu haben wir mit Boris Cipot gesprochen, Senior Security Engineer bei der Synopsys Software Integrity Group.

Verschiedene Methoden der KI werden inzwischen in vielen Feldern der Wissenschaft ebenso eingesetzt wie in den unterschiedlichsten Branchen. Im Gesundheitswesen, der Automobilbranche, im Marketing und im Bereich Robotics, um nur einige zu nennen. Künstliche Intelligenz ist den Kinderschuhen längst entwachsen. Es stellt sich zwangsläufig die Frage inwieweit sich auch Cyberkriminelle dieses Potenzial zunutze machen. 

Anzeige

Sind Cyberangriffe, die auf Methoden der KI basieren, schon Realität oder eher etwas, mit dem wir in Zukunft zu rechnen haben? 

Boris Cipot: KI-gesteuerte Malware und Angriffe sind durchaus mögliche Szenarien, aber es handelt sich eher um eine Bedrohung, mit der wir in Zukunft stärker werden rechnen müssen. Was wir allerdings sehr wohl schon jetzt sehen, sind Anzeichen für „smarte“ Malware. Sie ist bis zu einem gewissen Grad in der Lage, Benutzer- und Systemverhalten nachzuahmen. Angriffe dieser Art können Geräte infizieren und potenziell ganze Netzwerke durchdringen, wenn die Malware den richtigen Zeitpunkt abwartet, um zuzuschlagen. Trotzdem ist das kein Angriff, der sich vollständig auf KI-basierende Methoden stützt, sondern von einem Hacker gesteuert wird. Smarte Malware mag da zunächst nur wie ein relativ kleiner Fortschritt erscheinen. Aber die Entwicklung signalisiert, dass wir uns bei Cyberangriffen ganz eindeutig in eine KI-basierte Richtung bewegen.

Wie nutzen Cyberkriminelle KI, um sich einen technologischen Vorsprung zu verschaffen?

Anzeige

Boris Cipot: Am häufigsten nutzen Cyberkriminelle KI in Zusammenhang mit Malware. Eine Vorgehensweise wie sie seit Jahren praktiziert wird: unterschiedliche Arten von Malware versuchen, Systeme zu infizieren und sich unbemerkt im Netzwerk zu verbreiten. Malware profitiert von KI indem sie durch künstliche Intelligenz zunehmend autark agieren kann. Stellen Sie sich beispielsweise vor, was ein Malware-Programm in einem Unternehmen anrichten kann, wenn es sich an die Systeme und Situationen, in denen es sich befindet, anpassen könnte: zum Beispiel Benutzerverhalten imitieren und verstehen können, wann Befehle ausgeführt oder Daten gesendet werden müssen, um die Anomalien-Erkennung zu umgehen. Eine derart unabhängige Schadsoftware würde möglicherweise jahrelang unentdeckt bleiben. Riesige Mengen an Daten könnten abgezogen werden und einem Unternehmen katastrophalen Schaden zufügen. Und auf der anderen Seite für Cyberkriminelle ausgesprochen profitabel sein.

Ist es richtig, dass Cyberkriminelle Open-Source-basierte KI-Software verwenden? Und wie lässt sich die KI so steuern, dass sie genau das tut, was die Angreifer erreichen wollen? Welchen Datentypen verwenden sie beispielsweise, um ihre KI-Modelle zu entwickeln?

Boris Cipot: Open-Source-Software unterstützt Software-Entwickler ihre Entwicklungszyklen zu verkürzen. Dabei liegt der Schwerpunkt auf der Funktionalität der Software und nicht auf den Funktionsmerkmalen, die dazu notwendig sind, genau das zu tun. Open-Source-Software zu verwenden, ist bei jeder Art von Softwareentwicklung inzwischen vollkommen üblich. Man kann ohne große Transferleistung annehmen, dass Cyberkriminelle bei der Entwicklung ihrer eigenen Software einen ähnlichen Weg gehen – also ebenfalls auf Open Source Software zurückgreifen. Möglicherweise nicht in bei einer Malware selbst, sondern vielleicht in der Command-and-Control-Software oder bei der Benutzeroberfläche (UI), wo das Dashboard des Malware-Angriffs sichtbar wird.

Was können Kriminelle mithilfe von KI erreichen, und welche Art von Schäden werden sie vermutlich dadurch verursachen?

Boris Cipot: Jeder erfolgreiche Angriff kann dem Opfer finanziellen oder persönlichen Schaden zufügen, unabhängig davon, ob es sich um ein Unternehmen oder eine Einzelperson handelt. Wenn ein Angreifer versucht, in ein Unternehmensnetzwerk einzudringen oder ein bestimmtes Gerät zu infizieren, muss er eine Reihe von Systemen überwinden, Social-Engineering-Techniken anwenden, Betriebssysteme oder Softwarefehler ausnutzen, um sich für einen erfolgreichen Angriff zu positionieren. Stellen Sie sich jetzt einen Computer vor, der mit der Summe dieses Wissens ausgestattet ist plus er über Kenntnisse in Penetrationstechniken, Funktionen zur Verhaltensanalyse und Verhaltensnachahmung verfügt. Rein theoretisch wäre ein solcher Rechner in der Lage, Angriffe deutlich schneller, koordinierter und effizienter auszuführen. Noch beunruhigender ist, dass er potenziell Hunderte oder vielleicht sogar Tausende von Zielen auf einmal angreifen könnte. Es besteht kein Anlass zu der Vermutung, dass so ein Konzept nicht skalierbar ist. Die Schäden, die ein „Super-Computer“ auf Basis gut funktionierender KI anrichten könnte, sind unvorstellbar.

Sind die ausgereiften Tools, die dazu nötig wären, im Dark Web verfügbar? Und wenn ja, wie leicht sind sie zu bekommen?

Boris Cipot: Ich bin sicher, dass im Dark Web alle möglichen Tools existieren. Ausreichend viele davon sind technisch bereits sehr weit ausgereift. Dieselbe Frage müsste man sich hinsichtlich KI-gestützter Tools stellen. Wie ausgereift sind sie zum aktuellen Zeitpunkt bereits? Nehmen wir wieder Malware als Beispiel. Malware-Code findet man mit Sicherheit im Dark Web, und auch hier ist ein Teil dieser Malware bereits ausgereift. Ein Beispiel aus der Praxis ist WannaCry. Hier wurde der Quellcode eines Tools von anderen übernommen und weiterentwickelt.

Was unternimmt die Cybersicherheitsbranche, um aufkommenden KI-gestützten Bedrohungen etwas entgegenzusetzen? Erwartet uns eine „KI-gegen-KI“-Zukunft?

Boris Cipot: Künstliche Intelligenz oder präziser gesprochen eine ihrer Untergruppe, das maschinelle Lernen, wird schon seit einer Weile von Cybersicherheitsanbietern genutzt. Maschinelles Lernen hilft dabei, Bedrohungen oder neue Malware-Stämme zu identifizieren, und das schneller und effizienter als ein menschlicher Experte. Das verschafft Sicherheitsforschern mehr Zeit, sich auf die Fälle zu konzentrieren, bei den die KI noch schwankende Ergebnisse zeigt, Fehleinschätzungen trifft oder gänzlich versagt hat. Wird ein solches Problem nicht nur erkannt, sondern auch gelöst, werden die gewonnen Ergebnisse wieder in das KI-System eingespeist. Solche Systeme haben sich gerade in den letzten Jahren weiterentwickelt und sind deutlich ausgereifter als noch vor wenigen Jahren. Deshalb spielen sie bei der Bedrohungserkennung und Abwehr eine wichtige Rolle.

Cyberkriminelle haben natürlich das Ziel, dass sich die von ihnen verwendete KI an die veränderte Situation durch eine ihrerseits KI-basierte Cyberabwehr anpasst und eine legitime Software oder ein harmloses Datenpaket überzeugend nachahmen kann. Solche Systeme führen böswillige Aktivitäten zudem schneller aus als ein menschlicher Hacker. Der Angreifer hat also wie der Sicherheitsexperte im Unternehmen mehr Zeit, sich auf die für ihn wichtigeren Bereiche zu konzentrieren. Eine KI-gegen-KI-Zukunft ist nicht nur möglich, wir haben sogar schon erste Erfahrungen damit gemacht.

Herr Cipot, vielen Dank für das Gespräch!

Boris

Cipot

Senior Sales Engineer

Black Duck

Anzeige

Artikel zu diesem Thema

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.