Methoden und Abwehrmöglichkeiten

Deepfakes: Warum Unternehmen jetzt handeln müssen

Deepfake

Wir erleben derzeit eine explosionsartige Zunahme von sogenannten Deepfake-Angriffen. Im kürzlich erschienenen „2024 Identity Fraud Report“ mussten unsere Sicherheitsexperten von 2022 auf 2023 einen Anstieg um 3000 Prozent (!) bei Fälschungen verzeichnen, die auf die Umgehung von biometrischen Identitätsüberprüfungsverfahren abzielen.

Im Visier der Kriminellen: Reisepässe, Ausweise, Führerscheine – aber auch Branchen wie Gaming, Banken und Dienstleistungen. Betrüger setzen Deepfakes ein, um sich als rechtmäßige Person auszugeben, Geschäftsbetrug oder Identitätsdiebstahl zu begehen und überzeugende Social-Engineering-Angriffe durchzuführen. Die angestrebten Ergebnisse reichen vom Versuch der Geldwäsche bis hin zur Durchführung groß angelegter Fehlinformationskampagnen, wie im Fall des Deepfake-Investmentbetrugs in Bezug auf Martin Lewis.

Anzeige

Ein expansiver Anstieg der Deepfake-Technologie für betrügerische Aktivitäten ist ebenso absehbar wie der damit verbundene wirtschaftliche Schaden. Grund genug also, sich intensiv mit dieser Gefahr auseinanderzusetzen und proaktiv Vorkehrungen dagegen zu treffen.

Methodik und Mechanismen von Deepfakes

Bis vor kurzem waren überzeugende Fälschungen biometrischer Daten aufgrund des hohen technischen Aufwands eher selten. Die zunehmende Verfügbarkeit und Zugänglichkeit von generativer KI und Face-Swap-Apps ermöglicht es Kriminellen jedoch, ihre Betrugsversuche erheblich auszuweiten. Deepfakes, abgeleitet aus „Deep Learning“ und „Fake“, nutzen künstliche Intelligenz, um Audio-, Video- oder Bilddateien möglichst realistisch zu erstellen oder zu verändern. Mithilfe von Deep-Learning-Algorithmen lassen sich große Mengen echter Medien untersuchen, um menschliche Mimik und Sprache zu imitieren. Die Technologie ermöglicht es, den Gesichtsausdruck und die Stimme einer Person auf eine andere zu übertragen und so gefälschte Inhalte zu erstellen, die immer schwerer von echten persönlichen Nachweisen zu unterscheiden sind.

Eine Methode zur Erstellung von Deepfakes besteht darin, umfangreiche Daten zu sammeln, z. B. zahlreiche Bilder und Videos einer Person, die dann in ein „Generatives Adversariales Netzwerk“ (GAN) eingespeist werden. Dieses Netzwerk besteht aus zwei Teilen: dem Generator, der neue Daten erzeugt, und dem Diskriminator, der die erzeugten Daten mit echten Daten vergleicht. Mit der Zeit wird der Generator immer besser darin, realistische synthetische Medien zu erstellen, die menschliche Beobachter und herkömmliche digitale Prüfsysteme täuschen können.

Anzeige

Andere Ansätze basieren auf Diffusionsmodellen, die einen anderen Mechanismus zur Erzeugung realistischer Daten nutzen, oder einfacheren Autoencoder-Modellen.

Deepfake-Angriff auf biometrische Gesichtserkennungssysteme

Deepfakes werden im Allgemeinen in drei Kategorien eingeteilt: Gesichtsvertauschungen, vollständig generierte Bilder und lippensynchrone Videos.

Gesichtsvertauschungen

Bei Gesichtsvertauschungen – die oft auch als Synonym für den Begriff „Deepfakes“ verwendet werden – wird ein Kopf mit einem anderen Gesicht überlagert. Während bei rudimentären Versuchen – die als „Cheap Fakes“ bezeichnet werden – das Gesicht grob über einen Kopf montiert wird, kommt bei Deepfakes eine künstliche Intelligenz zum Einsatz, um das Gesicht nahtlos auf den Kopf zu übertragen. So lässt sich ein überzeugend realistisches Bild kreieren.

Vollständig generierte Bilder

Einen Schritt weiter gehen generative Modelle, die darauf trainiert sind, äußerst realistische Portraits von Grund auf zu erstellen. Diese Modelle werden mit umfangreichen Datensätzen gespeist und können scheinbar authentische Gesichter erzeugen, die in der Realität nicht existieren.

Lippensynchronisierte Videos

Bei lippensynchronen Videos werden die Lippenbewegungen der Originalperson manipuliert – oft in Verbindung mit gefälschten Stimmen. So lassen sich einer Person völlig andere Aussagen unterstellen.

Mithilfe von künstlicher Intelligenz und Deep Learning können Betrüger heute den Gesichtsausdruck, die Stimme, die Körpersprache und sogar die Hautbeschaffenheit einer Person manipulieren. Die Leichtigkeit, mit der Deepfakes erstellt werden können, und ihr Täuschungspotenzial machen sie zu einem gefährlichen Vehikel für Betrug und andere kriminelle Aktivitäten. Das stellt auch die bewährten Methoden biometrischer Gesichtserkennungstechnologie als einer der entscheidenden Komponenten digitaler Identitätsüberprüfung vor Herausforderungen.

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.

Proaktive Ansätze zur Erkennung und Abwehr von Deepfakes 

Mit der zunehmenden Verbreitung von Deepfakes wird der Bedarf an robusten Lösungen zur Identitätsüberprüfung immer dringlicher. Unternehmen müssen jetzt in die Offensive gehen, um Betrügern einen Schritt voraus zu sein. Sie sollten ihre Teams darin schulen, Deepfake-Versuche zu erkennen und zudem in ausgefeilte KI- und Biometrielösungen investieren. 

Gleichzeitig sollte eine wirksame Präventation jedoch nicht zu unnötigen Reibungsverlusten für legitime Nutzer von Online-Diensten führen. Wie sich also gegen Deepfakes wehren und Kunden gleichzeitig ein unkompliziertes Nutzungserlebnis ermöglichen? 

Erstens sollten Mitarbeiter geschult werden, wie man einen Deepfake erkennt. So gibt es bestimmte Anzeichen: In Videos zum Beispiel bildet künstliche Intelligenz die natürlichen Augenbewegungen und das Blinzeln noch nicht richtig nach, ein genauerer Blick auf eine gefälschte Person kann Störungen im Gesicht und anhaltende Passivität zeigen. Häufig gelingt es auch nicht, Ton und Bild nahtlos zu synchronisieren. Man sollte daher den Ton genau verfolgen und auf die Aussprache des Sprechers und unnatürliche Pausen achten. Farben und Schatten weisen ebenfalls oft Mängel auf, perfekte Genauigkeit ist selten. Achten Sie auf falsche Schatten oder auf wechselnde Farben, insbesondere wenn sich eine Person bewegt.

Zweitens ist es für Unternehmen und Regierungen von höchster Bedeutung, technologisch einen Schritt voraus zu sein. Auch Deepfakes entwickeln sich stetig weiter. Unternehmen, die eine Identitätsüberprüfung für KYC (Know Your Customer) und ähnliche Compliance-Zwecke benötigen, müssen daher in eine gründliche KI-gestützte Identitätsüberprüfung digitaler Inhalte investieren. KI-Algorithmen können subtile Unterschiede zwischen authentischen und synthetischen Bildern oder Videos erkennen und Nuancen aufspüren, die für das menschliche Auge oft nicht wahrnehmbar sind.

In Verbindung mit der sicheren Überprüfung von Ausweisdokumenten bietet die biometrische Verifizierung eine zusätzliche Sicherheitsebene. Der Prozess gleicht ein biometrisches Gesichtsbild mit einem Ausweis ab und kann dabei erstens feststellen, dass ein Anmeldeversuch von einer echten Person ausgeht, und zweitens, dass das Ausweisdokument zu der Person gehört, die es vorlegt. Die fortschrittlichsten biometrischen Verifikationstechnologien basieren heute auf KI-Modellen mit Deep Learning zur Bekämpfung von Spoofing (d.h. der Vortäuschung vertrauenswürdiger Identitäten). Hier bei Onfido haben wir eigene „Fraud Labs“ eingerichtet, in denen Experten dediziert zum Thema forschen und neue Abwehrtechnologien unter anderem mithilfe selbstgenerierter Deepfakes trainiert werden. 

Sogenannte Liveness-Lösungen arbeiten zur Nutzer-Verfikation mit Bewegtbildern und erhöhen dadurch die Sicherheit um ein weiteres Level. Da Deepfakes in der Regel in Webbrowsern gehostet werden und nicht in nativen Anwendungen für bestimmte Betriebssysteme, kann ein Check über mehrere Endgeräte hinweg zudem das Risiko voraufgezeichneter Videos, Emulatoren oder gefälschter Webcams eliminieren. 

Durch die Kombination von biometrischer Verifikation, Betrugserkennung durch maschinelles Lernen und kontinuierlichen Algorithmus-Updates können zukunftsfähige Lösungen einen robusten Schutz vor den Risiken durch Deepfakes bieten. Wir raten jedem Unternehmen, sich jetzt intensiv mit dem Thema auseinanderzusetzen und nach proaktiven Lösungen zu suchen.

Simon Horswell

Simon

Horswell

Senior Manager, Fraud Specialist

Onfido

Anzeige

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.