Kommentar

Optimierung von Deepfakes durch KI – Gefahren für Politik und Demokratie

Deepfake

So genannte „Deepfakes“ – verblüffend authentisch wirkende Videos (und andere Medien), die Menschen oder Szenen mittels Technologie imitieren – existieren bereits seit Jahren und werden zunehmend für diverse Anwendungszwecke eingesetzt. So können z.B. mithilfe der Technik bereits verstorbene Künstler wie Salvador Dalí als Teil von interaktiven Ausstellungen wieder zum Leben erweckt werden.

In der heutigen Zeit, wo viele Nationen mit globalen Unwägbarkeiten und politischer Instabilität zu kämpfen haben, geht es für Regierungen aber nicht um den Einsatz von KI zur Erzeugung von Spezialeffekten, futuristischer Kulissen oder dystopischen Zukunftsszenarien. Vielmehr bedeuten die außergewöhnlichen Fortschritte in der Künstlichen Intelligenz (KI), dass die Möglichkeiten und Werkzeuge der Bedrohungsakteure nun massiv gewachsen sind. Sie können beispielsweise Wahlwerbespots mit computergenerierten Fake-Bildern von Kandidaten produzieren, die lebensecht erscheinen, um inkriminierende Fehldarstellungen dieser Kandidaten darzustellen. 

Anzeige

Die Auswirkungen von Deepfakes auf politische Prozesse

Eine Erzählung braucht ein fesselndes Element, um sie im Gedächtnis der Zielgruppe zu verankern. Bei Filmen geht es um Unterhaltung und die Flucht vor der Realität – oft ist das in der Politik nicht viel anders.

Das fesselnde Element kann ein Bild, ein Audio-Clip oder ein Video sein. Die Fortschritte im Bereich KI haben sowohl in der Unterhaltungsbranche als auch als Werkzeug für Täuschung ganz neue Möglichkeiten eröffnet. KI benötigt große Datenmengen, um effektiv trainiert werden zu können und verlässliche und hochwertige Antworten zu liefern. Je mehr Inhalt, desto besser kann KI die angestrebten Ergebnisse erzielen. Für Bedrohungsakteure deren Ziel die Manipulation menschlichen Verhaltens und die Veränderung zuvor gesicherter Überzeugungen ist, stellt die Fülle von Audio-, Video- und Bilddateien in der politischen Sphäre einen erstklassigen Trainingsplatz dar.

Die Geschichte hat uns gelehrt, dass Lügen oftmals leichter verbreitet werden als die Wahrheit und sehr schwer zu korrigieren sind. In unseren Köpfen gibt es eine direkte Verbindung der eigenen Wahrnehmung hin zu unserem Verständnis von Realität, und es fällt uns sehr schwer, dieses anfänglich erzeugte Bild der Realität kritisch zu hinterfragen.

Anzeige

Dieses Phänomen hat ein erhebliches rechtliches und technisches Dilemma geschaffen: Wie können wir sicher sein, dass ein Video kein Deepfake ist? Wie beweist man, dass etwas nicht passiert ist? Und die größere Frage, die sich uns stellt: Wie können wir definitiv beweisen, dass etwas gefälscht ist? Im Jahr 2023 hat KI sich in vielen Bereichen bereits weit über die grundlegende menschliche Fähigkeit hinaus entwickelt: Sie ermöglicht es, täuschend echte Aufnahmen – ein Bild, ein Video oder eine Stimme – sehr schnell und unkompliziert zu fälschen. Es werden Situationen geschaffen, in denen die Wahrnehmung in den Köpfen der Menschen beeinflusst werden kann, durch gezielte Falschinformationen, was eine sehr gefährliche und wirksame politische Waffe darstellt.

Täuschung der Massen

Deepfakes sind dadurch eine neue Art der „Weapons of Mass Deception“, also Waffen der Massentäuschung, geworden. Die größte Auswirkung von Deepfake-Videos ist nicht die Tatsache, dass sie gefälscht sind. Es sind die Nachwirkungen der Täuschung, die auch lange nach der Entdeckung der Wahrheit in den Köpfen der Menschen bestehen bleiben – ein äußerst mächtiges Werkzeug in den Händen von Bedrohunsgakteuren. 

Diese Art von Szenario und seine potenziellen Folgen hat bereits 1710 Jonathan Swift, der Autor von „Gullivers Reisen”, beleuchtet. In einem Artikel für „The Examiner” bemerkte er: „Wenn eine Lüge nur eine Stunde lang geglaubt wird, hat sie ihre Arbeit getan, und es besteht keine weitere Notwendigkeit dafür. Die Falschheit fliegt, und die Wahrheit kommt hinkend nach, so dass, wenn die Menschen wieder aufgeklärt werden, es zu spät ist; der Witz ist vorbei, und die Geschichte hat ihre Wirkung entfaltet.”

Eine große Chance für Sicherheitsteams in der Bekämpfung von durch KI optimierten Deepfakes, besteht darin, KI einzusetzen, die darauf trainiert wurde, Deepfakes zu erkennen. Aber auch andere Prozesse sind vonnöten: Angesichts der Bedrohung durch Deepfakes muss die Gesellschaft der digitalen Bildung Vorrang einräumen, den Einzelnen in die Lage versetzen, zwischen echten und manipulierten Medien zu unterscheiden, in Technologien zur Erkennung von Deepfakes investieren und rechtliche Rahmenbedingungen schaffen, um böswillige Nutzung zu verhindern. Eine proaktive Zusammenarbeit zwischen Technologieunternehmen, Regulierungsbehörden und der Gesellschaft ist unabdingbar, um dem Anstieg der betrügerischen Deepfakes begegnen zu können.

Morgan

Wright

Chief Security Advisor

SentinelOne

Anzeige

Artikel zu diesem Thema

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.