Deepfakes werden durch den Einsatz künstlicher Intelligenz kreiert. Dabei werden scheinbar reale Videos und Audioaufnahmen von Menschen mit Hilfe von „Generative Adversarial Networks“ (GANs) erstellt, eine Art Algorithmus, der aus bestehenden Datensätzen neue Daten erzeugen kann.
Deep Learning und Machine Learning sind wichtig für die Automatisierung der Erkennung von Anomalien und Cyber-Bedrohungen, die die IT-Systeme eines jeden Unternehmens gefährden können. Auch wenn Deepfakes in der Welt der Politik noch keine Probleme bereiten, so ist doch ihr erster Einsatz in der Welt der Cyberkriminalität zu beobachten.
In den letzten Jahren waren Fake-News eine große Sorge. Es wird angenommen, dass diese Falschmeldungen eine wichtige Rolle bei Wahlprozessen wie den US-Präsidentschaftswahlen 2016 und dem Referendum über den Rückzug des Vereinigten Königreichs aus der EU im selben Jahr gespielt haben. Nin kommen Sie vermehrt in den Audiobereichen Sprache, Bild. Video zum EInsatz. Ihr Ziel: Betrug.
Um dies zu erreichen, verwenden Deepfakes „Generative Adversarial Networks“ (GANs), eine Art Algorithmus, der aus bestehenden Datensätzen neue Daten erzeugen kann. So kann GAN Tausende von Aufnahmen einer Personenstimme analysieren und daraus eine vollkommen neue Audiodatei erstellen, die genauso klingt und die gleichen Sprachmuster verwendet. Die Beunruhigung um diese Technologie liegt in der Tatsache, dass sie dazu genutzt werden könnte, gefälschte Videos und Aufzeichnungen von Politikern und anderen Persönlichkeiten des öffentlichen Lebens zu verbreiten. So könnte beispielsweise ein Deepfake eines Politikers, der eine rassistische Rede hält, das Ergebnis einer Wahl beeinflussen oder sogar zu gewalttätigen Ausschreitungen führen.
Obwohl der so genannte „Sprachbetrug“ nichts Neues ist, ist dieser Vorfall der erste seiner Art mit Deepfake-Technologie. Zwischen 2013 und 2017 stiegen die Vishing-Vorfälle (Voice Phishing) um 350%. Cybersicherheitsexperten befürchten, dass dieser Vorfall der Beginn eines neuen cyberkriminellen Trends sein könnte, künstliche Intelligenz zu missbrauchen.
CyberScams: eine wachsende Bedrohung
Die Bestrebungen von Cyberkriminellen, Unternehmen zu betrügen, haben deutlich zugenommen. Die finanziellen Schäden aufgrund von BEC-Betrug (Business Email Compromise) haben sich zwischen 2017 und 2018 verdoppelt. Wir sehen regelmäßig Schlagzeilen im Zusammenhang mit dieser cyberkriminellen Taktik. Vor Kurzem wurden 281 Personen nach Deep Fake-Betrug verhaftet. Toyota gab bekannt, dass eine Tochtergesellschaft des Unternehmens 37 Millionen Dollar durch diese Betrugsform verloren hatte.
Künstliche Intelligenz, für Gut und Böse
Das hier gezeigte Beispiel zeigt zwar, dass künstliche Intelligenz zur Bekämpfung von Cyberkriminalität eingesetzt werden kann, aber auch, um sie zu stoppen. Deep Learning und Machine Learning sind wichtig für die Automatisierung der Erkennung von Anomalien und Cyber-Bedrohungen, die die IT-Systeme eines jeden Unternehmens gefährden können. Cyberkriminelle sind immer auf der Suche nach neuen Techniken, um in die Netzwerke von Unternehmen zu gelangen, Unternehmensdaten zu stehlen und Geld zu verdienen. Aus diesem Grund ist es wichtig, über die neuesten Cybersicherheitstrends auf dem Laufenden zu bleiben.
www.pandasecurity.com