Nach Ransomware wird der nächste gemeine Flaschengeist der Cyberkriminalität höchstwahrscheinlich die Erstellung von Deepfakes sein: Audio- und Videomaterial, erzeugt mittels künstlicher Intelligenz (KI) in böswilliger Absicht, etwa zu Manipulations- und Betrugszwecken.
Es stellt sich damit die Frage, ob Deepfakes bereits eine unmittelbare Bedrohung darstellen und wie man sich vor ihnen schützen kann.
IT-Sicherheitsexperten diskutieren die Gefahr von Deepfake-Audio- und Videomaterial schon seit 2017, als erste amateurhafte Deepfakes in freier Wildbahn auftauchten. Das Risikospektrum reicht von Rufschädigung (frühe Deepfakes verspotteten oder verunglimpften Prominente) über die Manipulation politischer Debatten (zum Beispiel durch die Veröffentlichung gefälschten Materials unmittelbar vor Wahlen, um den politischen Gegner zu diskreditieren) bis hin zum Betrug von Unternehmen oder der Erstellung von Fake News, um die Börsenbewertung eines Unternehmens zu manipulieren.
Folgendes Szenario: Stellen Sie sich vor, Sie leiten ein britisches Energieunternehmen, und der Vorstandsvorsitzende Ihrer deutschen Muttergesellschaft ruft an und bittet Sie, sofort 220.000 Euro an einen Lieferanten in Ungarn zu überweisen. Sie erkennen die Stimme des Geschäftsführers, seine Art zu sprechen und seinen deutschen Akzent, und er begründet die Dringlichkeit des Geldtransfers überzeugend. Was tun Sie nun? Sie überweisen das Geld, richtig? Allerdings nur, um später herauszufinden, dass Betrüger KI verwendet haben, um die Stimme des deutschen CEOs zu imitieren. Dies ist kein hypothetischer Fall, sondern einer, der im März 2019 tatsächlich so passiert ist.
Der Sprung zurück ins Jahr 2021 öffnet den Blick auf die Fortschritte, die die Rechenleistung und KI-Algorithmen in den letzten zwei Jahren gemacht haben. Die aktuelle Kombination aus schnell fortschreitender Deepfake-Technologie und einer gut organisierten, gut finanzierten Cybercrime-Szene macht es sehr wahrscheinlich, dass Deepfakes sich jenem entscheidenden Wendepunkt nähern, den Ransomware bereits 2016 erreicht hat: die Entwicklung von einem eher obskuren Angriffsvektor – Ransomware gibt es seit etwa 30 Jahren – zu einer Welle schädlicher Angriffe, die sich schnell ausbreitet.
Skeptiker könnten nun fragen: Warum sollten sich Cyberkriminelle die Mühe machen, mit großem Aufwand Deepfake-Audio- oder sogar -Videomaterial zu erstellen, um Unternehmen anzugreifen, wenn sich doch einfaches Phishing nach wie vor als effektiv genug erweist, um Unternehmensnetzwerke mit Ransomware zu kompromittieren? Das ist ein stichhaltiger Einwand, aber es gibt vier Aspekte, die dennoch im Wendepunkt-Szenario münden: Erstens sind Cyberkriminelle dafür bekannt, neueste Technologien schnell zu übernehmen. Kriminelle haben jahrzehntelang gefälschte E-Mails verwendet, um Unternehmen zu betrügen (der sogenannte „Business E-Mail Compromise“, kurz BEC) – jetzt aber haben sie die Möglichkeit, von einfachen E-Mails zu leistungsstarkem Audio- und Videomaterial überzugehen, also werden sie diese Option definitiv nutzen, um ihr Instrumentarium zu erweitern.
Zweitens schreitet die Deepfake-Technologie in Riesenschritten voran – man muss nur kurz „OpenAI Jukebox“ googeln, um einen Eindruck von der hohen Geschwindigkeit der KI-Innovation zu erhalten. Das bedeutet, dass Deepfakes mit jedem Monat schwieriger von echtem Audio- und Videomaterial zu unterscheiden sind. Es wird Angreifern immer leichter fallen, auf diese Weise zum Erfolg zu kommen, und alle notwendigen Werkzeuge dafür finden sie im Internet, notfalls im Darknet. In naher Zukunft werden Security-Forscher eine differenzierte Darknet-Lieferkette für Deepfake-bezogene Angriffsdienste vorfinden – denn so funktioniert die Cybercrime-Industrie heute eben.
Drittens erfordert die Erstellung eines glaubwürdigen Deepfake-Angriffs – beispielsweise einer Videobotschaft des CEOs an die Finanzabteilung – zwar viel Aufwand und Fachwissen, doch der Geld- und Zeitaufwand, den Cyberkriminelle für einen Angriff in Kauf nehmen, steht in direktem Zusammenhang mit dem erwartbaren Profit. Hier genügt ein Blick auf die Geschichte der Ransomware: Ursprünglich zielte Ransomware auf Einzelpersonen ab und nutzte gewöhnliche Phishing-E-Mails, um diese zu ködern; in letzter Zeit jedoch haben sich Ransomware-Banden auf Unternehmen konzentriert – und einige sogar auf die sogenannte „Großwildjagd“. Das bedeutet, dass Angreifer Wochen oder sogar Monate für Spearphishing, Netzwerkerkundung, Berechtigungseskalation, Datenexfiltration und schließlich der Erpressungskampagne aufwenden. Dies ist eine ganz neue Liga von Ransomware-Angriffen – sie erfordert wesentlich mehr Vorbereitung und Fähigkeiten, lockt aber mit einem gigantischen Lösegeld im Erfolgsfall. In ähnlicher Weise erfordert KI-basierter Betrug viel mehr Zeit und Aufwand als das altmodische BEC, aber wenn der zu erwartende Gewinn groß genug ist, werden einige Bedrohungsakteure diesen Weg beschreiten.
Und schließlich bewegt sich die Cyberkriminalität, wie so viele menschliche Aktivitäten, in Wellen. Zwar wird Ransomware in absehbarer Zeit sicher nicht aus der Mode kommen, aber eine bestimmte Art von Bedrohungsakteuren wird bald die ausgetretenen Pfade der digitalen Erpressung verlassen wollen. Denn Fortschritte bei Verteidigungs- sowie Backup/Recovery-Strategien und -Technologien werden Ransomware-Angriffe in den kommenden Jahren sicherlich erschweren. Allerdings gibt es noch keine vergleichbare Verteidigungsstrategie, geschweige denn automatisierte Verteidigungswerkzeuge, gegen eine perfekt gemachte gefälschte Videobotschaft, in der ein Vorstand jemanden aus der Finanzabteilung anweist, den Betrag X auf das Konto Y zu überweisen.
Einige spezialisierte Sicherheitsunternehmen haben zwar bereits begonnen, an Deepfake-Erkennungstechnologien zu arbeiten, und Anbieter wie Facebook haben Deepfakes von ihren Plattformen verbannt, um gezielte Desinformation zu unterbinden. Dennoch existiert ein Zeitfenster, in dem eine Angriffstechnologie innovativ genug ist, um Menschen zu täuschen, zugleich aber noch so jung, dass es an Abwehrmechanismen fehlt, um sie zu unterbinden. Dieses Zeitfenster öffnet sich für Deepfakes – nicht in einer fernen Zukunft, sondern jetzt.
Was können Unternehmen also tun, außer auf die Entwicklung von Anti-Deepfake-Lösungen zu warten? Es gibt mehrere Maßnahmen, mit den sich Unternehmen bereits jetzt gegen Deepfakes wappnen können:
1. Kennen Sie Ihren Feind
Stellen Sie sicher, dass Ihr IT-Security-Personal diese neue Bedrohung auf dem Radar hat, und verfolgen Sie die Informationen über Deepfake-Bedrohungen genau, um auf den bevorstehenden Wendepunkt vorbereitet zu sein.
2. Erstellen Sie einen Plan
Legen Sie Workflows zur Reaktion auf Vorfälle und Eskalationsverfahren für diese Art von Angriffen fest. Denn Deepfakes nutzen IT in Form von KI, sind aber dennoch ein Angriff auf Unternehmensebene. Die Reaktion auf einen solchen Vorfall wird daher das Top-Management ebenso beschäftigen wie die IT-Sicherheit, die Finanzabteilung, die Rechtsabteilung und das PR-Team.
3. Sorgen Sie für Aufklärung
Beziehen Sie Deepfakes in Security-Awareness-Kampagnen ein, um die Belegschaft über diese Bedrohung zu informieren. Schulen Sie Mitarbeiter darauf, sofort innezuhalten, wenn sie Zweifel an Informationen haben, die ihnen vorliegen – selbst an glaubwürdigen Audio- oder Videoinformationen. Setzen Sie gezielte Sensibilisierungskampagnen für Personen mit hohem Risiko auf, beispielsweise für das Top-Management, die mittlere Managementebene und die Finanzabteilung.
4. Schaffen Sie Kommunikationskanäle
Richten Sie Arbeitsabläufe ein, damit die Mitarbeiter wissen, wie sie alle Informationen überprüfen können, die anhand einer potenziellen Deepfake-Nachricht eingehen. So wie die Zwei-Faktor-Authentifizierung zum De-facto-Standard für die Zugangssicherheit geworden ist, muss die doppelte Überprüfung kritischer Informationen im Zeitalter KI-generierter Fehlinformationen zum Standard werden. Ergänzend sollte es einen Backup-Kanal geben: Wenn die Überprüfung bestimmter Informationen im Moment nicht möglich ist (Angreifer üben in der Regel Zeitdruck aus: „Das ist dringend!“), muss es einen alternativen Kommunikationsweg geben. Die Mitarbeiter sollten über einfach bedienbare Multi-Channel-Kommunikationswerkzeugeverfügen, die sie auch unter Zeitdruck oder in Krisen mühelos nutzen können.
5. Überdenken Sie die Unternehmenskultur
Schon beim herkömmlichen BEC ist der Katalysator für einen erfolgreichen Angriff oft, dass Mitarbeiter sich nicht trauen, Anweisungen zu hinterfragen, die sie – scheinbar – von ihren Vorgesetzten erhalten. Sie befürchten, dass ihr Chef verärgert sein könnte, wenn sie nach einer Bestätigung anfragen. Eine effektive erste Verteidigungslinie besteht also darin, die Unternehmenskultur auf den Prüfstand zu stellen und eine flachere Hierarchie anzustreben: eine, in der es „keine große Sache“ ist, den gesunden Menschenverstand zu gebrauchen und seinen Vorgesetzten anzurufen, um zu fragen: „Haben Sie mir wirklich gerade per Videobotschaft mitgeteitl, ich solle Betrag X auf Konto Y im obskuren Offshore-Land Z überweisen?“
Der böse Geist der Deepfakes könnte schon bald aus der Flasche der noch nicht ganz „marktreifen“ KI-Technologie entweichen. Unternehmen müssen sich dieses Risikos bewusst sein und sich darauf vorbereiten, selbst wenn es noch keine fertige „Anti-Deepfake-Lösung“ gibt, die sie schnell implementieren könnten.
Thomas Vetsch, Director Systems Engineering für DE+CH bei Citrix, https://www.citrix.com/de-de/