Statement

Deepfakes erfordern eine Kultur des Misstrauens

Deepfake

KI-basierte Deepfakes haben sich im letzten Jahr als effektives Täuschungsinstrument etabliert. Vom rudimentären E-Mail-Spoofing wurden sie zu einer hochentwickelten Phishing-Technik weiterentwickelt, die manipulierte Audio- und Videodaten einsetzt.

Die Ursprünge von Deepfakes lassen sich dabei auf die inhärenten Schwachstellen der E-Mail-Technologie zurückführen, der es an robusten Mechanismen zur Überprüfung der Absenderidentität fehlt. Dieses seit langem bestehende Problem hat Angreifern den Weg geebnet, KI für immer gefährlichere Angriffe in Kombination mit dem Dauerbrenner der Social Engineering zu nutzen.

Anzeige

Deepfakes werden in den zwei Formaten Audio und Video für Betrugsmanöver eingesetzt. Während Audiomanipulationen seit über einem Jahrzehnt bekannt sind und sich in jüngster Zeit zu Telefonanrufen weiterentwickelt haben, sind gefälschte Videos auf Basis von öffentlich zugänglichen Videoschnipseln, die mit Hilfe von KI manipuliert werden, erst in jüngster Zeit prominenter aufgetreten. Die Erzeugung künstlicher Nachrichten für Personen mit unterschiedlichem technischem Know-how leicht machbar, denn die KI-Tools übernehmen die Arbeit. Diese Demokratisierung der Deepfake-Technologie macht sie zur ernsthaften Bedrohung. Die Werkzeuge zur Erstellung überzeugender Fälschungen befinden sich damit in den Händen eines Personenkreises, der die ethischen Implikationen des Einsatzes mißachtet.

Das Schadpotenzial von Deepfakes

Die Folgen von Deepfakes gehen weit über bloße Falschinformationen und Zahlungsanweisungen an Malware-Akteure hinaus. Die neuen Deepfakes untergraben das Vertrauen in jegliche Interaktion grundlegend, sei es im persönlichen oder beruflichen Umfeld. Damit wackelt das Vertrauen in den Eckpfeilern der menschlichen Kommunikation. Wenn Menschen nicht mehr zwischen Realität und Fiktion unterscheiden können, beginnt das soziale Gefüge zu bröckeln. Ein hypothetisches Szenario: Ein Manager setzt KI ein, um einen Videobericht auf der Grundlage tatsächlicher Daten zu erstellen. Die Informationen mögen zwar korrekt sein, aber die Erstellung einer synthetischen Darstellung untergräbt die Authentizität der Kommunikation und hinterlässt bei den Teammitgliedern ein unbehagliches Gefühl.

Dieser Vertrauensverlust in die neuen Möglichkeiten der Inhaltserstellung ist nicht auf harmlose Szenarien beschränkt. Deepfakes können als Waffe eingesetzt werden, um das Vertrauen absichtlich zu unterminieren und damit zu ernsthaften Rufschädigungen oder genereller Verunsicherung beitragen. Fälle von manipulierten Bildern, die aus dem ursprünglichen Kontext gerissen wurden, haben bereits zu Rechtsstreitigkeiten und einem Aufschrei in sozialen Medien geführt. Die Möglichkeit, solche Inhalte schnell und mit hoher Reichweite viral gehen zu lassen, verstärkt deren Wirkung und schafft eine Kultur der Zweifelhaftigkeit. Damit werden Deepfakes zu einer ernsthaften Bedrohung, die weit über finanziellen Schaden hinausgeht.

Anzeige

Die psychologischen Auswirkungen

Die psychologischen Folgen von Deepfakes können sowohl für die Gesellschaft als auch für den Einzelnen enorm sein. Die Verbreitung gefälschter pornografischer Inhalte zielt beispielsweise auf die Würde und Privatsphäre der Menschen ab und hinterlässt lang anhaltende emotionale Narben. Darüber hinaus können manipulierte politische Inhalte zu Misstrauen gegenüber öffentlichen Personen und Institutionen führen und die demokratischen Prozesse untergraben. Wenn die Worte eines Politikers in einem gefälschten Kontext verwendet werden, löst dies eine gesellschaftliche Vertrauenskrise aus. Denn wenn selbst Aussagen von öffentlich agierenden Personen gefälscht werden können, wem kann man dann noch vertrauen und wie kann der Einzelne einen Deepfake erkennen oder nachweisen?

Die jüngere Generation ist besonders gefährdet. Ihr Leben wird zunehmend von Bildschirmen und ihrer Interaktion über die sozialen Medien bestimmt. Diese Zielgruppe muss demnach besonders angeleitet werden, welche Inhalte authentisch sind und welchen Vertrauen geschenkt werden darf. Sie bewegen sich am Rande einer Welt, in der die Realität verzerrt erscheinen und mit dem Risiko sozialer Isolation und psychischer Probleme einhergehen kann. Angesichts dieser wachsenden Probleme besteht Handlungsbedarf.

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.

Maßnahmen gegen Deepfakes

Als Reaktion auf das zunehmende Aufkommen von Deepfakes ist es erforderlich, KI nicht nur für die Erstellung, sondern auch für die Erkennung von künstlich erstellten Inhalten einzusetzen. In den kommenden Jahren wird die Zahl derjenigen Unternehmen steigen, die KI-Technologien speziell zum Aufspüren von Deepfakes entwickeln. Darüber hinaus sind insbesondere in der Europäischen Union regulatorische Maßnahmen zu erwarten, die Standards und Schutzmaßnahmen gegen die böswillige Nutzung dieser Technologie festlegen.

Digitale Wasserzeichen sind eine Möglichkeit, die zur Authentifizierung von Inhalten beitragen kann. Das ist immerhin ein Anfang, wobei für höhere Sicherheit ein mehrschichtiger Ansatz erforderlich ist, der neben der KI-Verifizierung auch persönliche Identifikatoren wie eindeutige Schlüsselwörter umfasst. Ein solcher Schutz funktioniert ähnlich wie die Zwei-Faktor-Authentifizierung, die derzeit bereits als Passwortschutz verwendet wird. Bis diese Technologien jedoch ausgereift sind, spielt Aufklärung die entscheidende Rolle im Kampf gegen die negativen Auswirkungen von Deepfakes. Die Schulung in der Erkennung von gefälschten audiovisuellen Inhalten sollte fester Bestandteil der beruflichen und akademischen Lehrpläne werden, damit sich die Gesellschaft in diesem tückischen Umfeld gegen negative Auswirkungen wappnet.

Was die Zukunft bringt

Im kommenden Jahr werden Deepfakes zu noch mehr Verwirrung und Misstrauen führen. Die Gesellschaft wird sich mit diesen Herausforderungen auseinandersetzen müssen. Diskussionen über Regulierung und Schutz werden dementsprechend an Bedeutung gewinnen. Langfristig müssen User auf KI-Tools zur Erkennung von Deepfakes auf persönlichen Geräten setzen. Dadurch kann einer Kultur der Umsicht Vorschub gewährt werden, bevor gefälschte Inhalte über soziale Kanäle verbreitet werden.

Letztendlich muss die Gesellschaft mit der Entwicklung neuer Technologien Schritt halten und mit einer Antwort auf deren negative Aspekte reagieren. Der Kampf gegen Deepfakes erfordert persönliche Aufmerksamkeit und technologische Innovation, da die Folgen von Untätigkeit schwerwiegend sein können. Einmal verlorenes Vertrauen in technische Kommunikationskanäle und Inhalte lässt sich nur schwer zurückgewinnen. Das Zero Trust-Prinzip hat gezeigt, wie Organisationen es schaffen können, das Vertrauen in digitale Interaktionen wiederherzustellen.

Tucker

James

Tucker

Head of CISO International

Zscaler

Anzeige

Artikel zu diesem Thema

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.