Sogenannte Camera-Injection-Angriffe entwickeln sich immer mehr zum Sicherheitsrisiko für Sicherheitssysteme mit Gesichtserkennung. Dabei werden Schwachstellen in der Software ausgenutzt, um sich mit Deepfakes oder Face Swaps Zugang zu verschaffen.
Der Einsatz von Gesichtserkennung als Identifikationsmöglichkeit bei Sicherheitssystemen nimmt immer weiter zu, denn lange Zeit galt diese Variante als sehr sicher. Doch das hat sich mittlerweile geändert, wie Vertreter von Jumio, einem der führenden Unternehmen für biometrische Identifikationssysteme, warnen. Sogenannte Camera-Injection-Angriffe sind auf dem Vormarsch und bedrohen die Sicherheit derartiger Systeme.
Hintergrund der Angriffe dürfte die rapide fortschreitende Verbreitung von Deepfakes sein. Dabei wird digital ein Abbild einer realen Person erstellt und in Videos oder Bilder eingefügt. Bekanntestes Beispiel dürfte ein Video von Barack Obama sein, in dem er über die Möglichkeiten von Deepfakes spricht und auf die Gefahren aufmerksam macht – zu denen nun auch die Camera-Injection-Angriffe zählen. Dabei werden Schwachstellen in den Gesichtserkennungssystemen mit manipulierten Videos ausgenutzt. Durch Umgehung des CCD (Charge-Coupled Device) einer Kamera können Betrüger voraufgezeichnete, veränderte oder vollständig synthetische Videoströme in den Authentifizierungsprozess einschleusen. Diese betrügerischen Inhalte reichen von Face Swaps in Echtzeit bis hin zu künstlich erzeugten Sequenzen.
Camera-Injection-Angriffe oftmals unbemerkt
Sobald ein Angreifer auf diesem Weg die Sicherheitsmaßnahmen ausgehebelt hat, erhält er Zugang zu den kompromittierten Accounts und kann diese für eine ganze Reihe an kriminellen Aktivitäten ausnutzen, angefangen bei Identitäts- und Datendiebstahl bis hin zu Betrugsmaschen. Das Hauptproblem bei Camera-Injection-Angriffen ist die Möglichkeit für Cyberkriminelle, unbemerkt in Systemen zu operieren. Im Gegensatz zu herkömmlichen Cyberangriffen, die sofortige Alarme auslösen, bleiben erfolgreiche Camera-Injection-Angriffe oft unbemerkt, da die Systeme denken, dass sie den Nutzer ausreichend identifiziert haben. Entdeckt werden sie daher oft erst, wenn verdächtige Aktionen auf dem Account registriert werden, aber dann ist es bereits zu spät.
Doch wie kann man sich gegen diese Art der Cyberkriminalität schützen? Dafür ist ein mehrstufiger Ansatz bei der Identitätsprüfung sowie Maßnahmen zur Betrugsprävention notwendig. Dazu gehören beispielsweise Liveness Detection Tools, mit denen manipulierte oder künstlich erstellte Videosequenzen identifiziert werden können. Auch bei den Kameratreibern ergeben sich Ansatzpunkte, mit denen die Sicherheit verbessert und kompromittierte Kameras erkannt werden können. Besteht der Verdacht auf Manipulation, kann eine forensische Untersuchung des Bildmaterials dabei helfen, diesen zu verifizieren oder zu widerlegen. Unregelmäßige Bewegungen, auffällige Muster beim Blinzeln oder sich wiederholende Gesichtsausdrücke können ein Hinweis sein, dass es sich um einen Deepfake handelt.
www.8com.de