Sind Deepfakes zu sehr für kriminelle Machenschaften ausgelegt?

Deepfakes sind für kreative Zwecke äußerst nützlich. Aber sie werden auch zunehmend manipulativ eingesetzt. Videos oder Tonaufnahmen werden verändert und stellen eine falsche Wahrheit dar. Das Problem hat auch Auswirkungen auf den aktuellen Ukraine-Krieg.

Anzeige

Audios und Videos von Selenski und Putin wurden kürzlich abgewandelt. In denen werden ihnen Worte in den Mund gelegt, die sie so nie gesagt haben. Der Einsatz von Deepfakes kann große Ausmaße haben. Wird die Form von KI in Zukunft zu große Probleme bringen? Und wenn ja, wie kann man diese vermeiden?

Gefälschte Bilder, Audios und Videos

Deepfakes sind mithilfe von künstlicher Intelligenz veränderte Bilder, Audio- und Videoaufnahmen. In Bildern oder Videos können Gesichter von Personen ausgetauscht werden. Diese Form der Deepfakes nennt sich “face swap”. Bei Audiodateien und auch in Videos kann das Gesagte geändert werden, indem Worte hinzugefügt und gelöscht werden. Die Sprache kann auch komplett ersetzt werden. Durch den Einsatz von KI wird das Bild dem Gesagten angepasst. Descript Overdub oder Google WaveNet sind gängige Apps für die Sprachveränderung. Die Videos sollen danach authentisch wirken, was sie aber meistens nicht tun. Deepfakes dienen dazu, die Menschen zu täuschen und vorzugsweise prominente Personen bloßzustellen. Für künstlerische Zwecke ein äußerst hilfreiches Tool. Doch leider auch kriminell vielfältig einsetzbar.

Vorsicht vor Betrug

Kriminelle können Deepfakes dazu nutzen, an Geld heranzukommen. Schon in der Vergangenheit bediente sich das organisierte Verbrechen am Fortschritt der Technologie, um zum Beispiel per E-Mail Überweisungen anzufordern. Sie geben sich als eine andere Person aus, ein Freund, Kollege oder Familienangehöriger, um den Menschen so ihr Geld aus der Tasche zu ziehen. Mithilfe von Deepfakes wird ihnen ein solcher Betrug in Zukunft noch leichter fallen. Zum Beispiel können sie mit veränderter Stimme jemanden anrufen und wie eine bekannte Person klingen. Auf diese Weise kann man Leute leicht dazu bringen, Geld zu überweisen. Mit dem Einsatz der KI behindern Kriminelle zudem die Polizeiarbeit. Deepfakes können missbräuchlich für Erpressung, Betrug, Dokumentenfälschung oder auch Finanzmarktmanipulation verwendet werden.

Anzeige
Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.

Falsche Worte im Ukraine-Krieg

Auch im aktuellen Ukraine-Krieg fand der Einsatz von Deepfakes zu kriminellen Zwecken statt. Dem ukrainischen Präsidenten Wladimir Selenski wurden Worte in den Mund gelegt, mit denen er sein Volk zur Kapitulation auffordert. Es handelt sich um ein Video, das auf einer glaubwürdigen Quelle online gestellt wurde. Doch offensichtlich wurde der Nachrichtendienst, bei dem das Video online ging, gehackt. Schnell verbreitete sich die Datei auf den Social-Media-Plattformen. Doch einen Tag später war klar: Bei diesem Video handelt es sich um einen Deepfake. Selenski hat diese Worte niemals benutzt. Wäre der Fake nicht so schnell aufgeflogen, hätte das tragische Konsequenzen für die Ukraine haben können. Deepfake Videos und Audios lassen Menschen Aussagen treffen, die sie nie getätigt haben. Auch in der Politik, in zukünftigen Wahlkämpfen besteht die Gefahr, dass sich dieser Form der KI bedient wird. So können Wahlkämpfe einen unrechtmäßigen Verlauf nehmen.

Deepfakes erkennen

Bei amateurhaften Video- oder Audiobearbeitungen sind Deepfakes leicht auszumachen. Personen und Sprache wirken dann roboterartig. Um die Fakes zu entlarven, sollte man auf Details achten. Die genaue Betrachtung von Schatten, Augen- und Mundbewegungen, sowie den Hintergrund, ist wichtig. Passt irgendetwas davon nicht zusammen, handelt es sich wahrscheinlich um eine Fälschung. Bei Deepfakes wirken Gesichter auch oft zu perfekt und makellos. Zudem sollte man immer die Quelle überprüfen. Doch ist das auch nicht zu hundert Prozent sicher, denn diese kann wie im Fall von Selenski gehackt worden sein. Um Sicherheit zu bekommen, kann man die Datei auf Internetseiten durchlaufen lassen, die überprüfen, ob es sich um einen Fake handelt. Doch man sollte beachten, dass auch die nicht immer hundertprozentige Sicherheit gewähren.

Kennzeichnung der Fakes nötig

Noch sind Deepfakes in den meisten Fällen leicht zu erkennen. Doch in naher Zukunft wird das nicht mehr der Fall sein. Die Zeit hat gezeigt, dass die Technologie immer schneller voranschreitet. Ein Verbot der Form von KI wird sich kaum durchsetzen können. Es wäre ein zu großer Verlust für die Technologie und die Kunst. Denkbar wäre aber eine Kennzeichnung aller veränderter Dateien, um Kriminalität vorzubeugen. So kann man direkt erkennen, ob ein Bild, Ton oder Video der Wahrheit entspricht. Es gibt schon einige Programme, die Deepfakes enttarnen können. Microsoft macht sich den Video Authentificator zunutze und auch Facebook plant die Einbringung eines Detektors, um die Verbreitung von Deepfakes vermeiden zu können. Zudem sollten der Polizei automatisierte Programme und entsprechende Gerätschaften zur Verfügung gestellt werden, die Deepfakes enttarnen können.

Fazit

Deepfakes bringen großes Potenzial für Kriminalität mit. Die Technologie schreitet immer weiter und schneller voran, sodass man die Fakes bald gar nicht mehr erkennen kann. Die Form der künstlichen Intelligenz kann zu großen Problemen in der Zukunft führen. Sie jedoch komplett zu verbieten, wäre keine Lösung.

Maximilian Schmidt, CPI

Maximilian

Schmidt

Geschäftsführer

CPI Technologies

Maximilian Schmidt ist CEO von CPI Technologies. Die Firma entwickelt die NFT-basierte Digital Identity Produkte und ist außerdem spezialisiert auf Software-Entwicklung in den Bereichen Blockchain, Finanzen und KI sowie Marketing und Fundraising.
Anzeige

Artikel zu diesem Thema

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.