Deep Fakes – Reale Bedrohung oder nur Spielerei?

Deep Fakes sind Medieninhalte, die durch den Einsatz von Künstlicher Intelligenz gezielt völlig automatisiert manipuliert und über soziale Netzwerke verbreitet werden. Was als Spielerei in der digitalen Welt begann, entwickelt sich immer mehr zur realen Bedrohung für Unternehmen und Politik.

Die Abteilung Cognitive Security Technologies am Fraunhofer-Institut für Angewandte und Integrierte Sicherheit AISEC forscht an der Schnittstelle zwischen Künstlicher Intelligenz und IT-Sicherheit und hat vier Bereiche identifiziert, in denen Deep Fakes bereits heute zur Herausforderung geworden sind.

Anzeige

Die Manipulation von Bildmaterial gehört mittlerweile zu unserem Alltag: Nicht nur in Zeitschriften oder auf Dating-Portalen wird mit Bildbearbeitungsprogrammen nachgeholfen, auch in sozialen Medien sind manipulierte Bilder allgegenwärtig. Das stellt auch Polizei, Gerichtswesen und Versicherungen zunehmend vor die Herausforderung, Originale von Fälschungen zu unterscheiden. Geschulte Fachkräfte unterstützen dabei, Bildmanipulationen z.B. bei Verdacht auf Betrug aufzudecken.

Mit Video- oder Audiomaterial verhielt es sich bislang noch anders: Aufgrund des dynamischen Inhalts ist die Anfertigung hochwertiger Fälschungen herausfordernder. Für eine Minute gefälschtes Videomaterial mit 30 Frames pro Sekunde müssten 1.800 Bilder manipuliert werden; und zwar so, dass sie alle nahtlos ineinander übergehen. Ähnliches gilt für Audiomaterial. Durch herkömmliche Methoden waren solche Fälschungen nahezu unmöglich, und Video- und Audiomaterial zählten damit lange als die letzte Bastion in Sachen Vertrauen und Authentizität in digitalen Medien.

Manipulation durch Machine Learning

Durch den Einsatz von Machine Learning und Methoden der Künstlichen Intelligenz ändert sich die Bedrohungslage: Hochwertige Video-Fälschungen können mittlerweile mit frei verfügbarer Open-Source-Software automatisiert erstellt werden. Und auch die gezielte Manipulation von Audio-Dateien ist technisch so weit ausgereift, dass einer Person in der digitalen Welt ein beliebiger Satz sozusagen »in den Mund gelegt« werden kann – vorausgesetzt, es steht genug Ausgangsmaterial zur Verfügung, um die KI zu trainieren. Insbesondere bei Personen des öffentlichen Lebens stellt das angesichts der Menge an Daten, die auf den gängigen Social-Media-Plattformen zur Verfügung stehen, keine wirkliche Hürde mehr dar.

Anzeige

»Der Name Deep Fake ist eine Komposition aus ‚Fake’ für Fälschung und ‚Deep’, was auf die zugrunde liegenden tiefen neuronalen Netze hinweist«, erklärt Nicolas Müller, wissenschaftlicher Mitarbeiter und Experte für Machine Learning am Fraunhofer AISEC. »Diese Netze ähneln entfernt der Struktur des menschlichen Gehirns und bestehen aus mehreren Millionen künstlichen Neuronen, die in der Lage sind, komplizierte Aufgaben zu lernen.«

Konkret bedeutet das, dass ein derartiges Netz mit Video- bzw. Audiomaterial einer Zielperson trainiert werden kann und so lernt, den Gesichtsausdruck oder die Sprachmelodie der Zielperson zu imitieren, um beliebiges Video- oder Audiomaterial zu generieren – mehrere Minuten an Sprachaufnahmen sind hier bereits ausreichend.

Bedrohung für Wirtschaft und Gesellschaft

Aufgrund der gesellschaftlichen Brisanz haben die Forschenden am Fraunhofer AISEC das Thema schon frühzeitig in den Fokus ihrer Untersuchungen gestellt. Dabei konnten die Sicherheitsexperten vier Bereiche identifizieren, in denen Deep Fakes bereits jetzt zur realen Herausforderung geworden sind:

  • VoiceID-Systeme: Um sich am Telefon bei einer Bank, einer Versicherung oder einem Mobilfunkanbieter zu legitimieren, werden zunehmend Voice-ID-Systeme eingesetzt. Der Nutzer wird bei einem Anruf anhand der Stimme identifiziert: Der Stimme kommt also die Bedeutung eines Passworts zu. Eine Fälschung der Stimme kann einen Angreifer beispielsweise legitimieren, Überweisungen zu tätigen oder ganze Konten zu leeren. 
     
  • ID-Provider: Anbieter von digitalen Identitäten erlauben es Kunden, rein digital über das Internet ihre Identität zu bestätigen. Diese Identitäten können anschließend genutzt werden, um Bankkonten zu eröffnen oder Verträge abzuschließen. Deep Fakes ermöglichen hier nicht nur Angriffe auf Privatpersonen (Person A handelt im Namen von Person B); sondern ermöglichen auch Straftaten wie Geldwäsche, da beliebige Bankkonten erzeugt werden können.
     
  • Kriminalistik: Deep Fakes können dazu eingesetzt werden, Beweismittel zu fälschen oder Straftaten zu verschleiern. Aufnahmen von Stimmen und Geräuschen werden häufig als Beweismittel zugelassen, um Betrüger zu überführen. Die Manipulation dieser Aufnahmen stellt eine große Herausforderung für die Justiz und das Rechtssystem dar.
     
  • Social Engineering: Nicht zuletzt öffnen Deep Fakes auch Trickbetrügern Tür und Tor. Im Bereich Social Engineering, also der gezielten Irreführung von Zielpersonen mit dem Zweck, an sensible Informationen zu gelangen und Zugriffsrechte auf IT-Systeme zu erhalten, eröffnen sich durch Deep Fakes neue Risiken.
Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.

Deep Fakes erkennen und Risiken minimieren

Durch den gezielten Einsatz von Methoden des Maschinellen Lernens wird die Bedrohung der digitalen Identität durch Deep Fakes weiterhin zunehmen.

Eine Antwort auf diese Bedrohung ist die KI-gestützte Erkennung von Deep Fakes. Denn so, wie Neuronale Netze die Erstellung lernen können, so können sie auch für die Erkennung von gefälschtem Material trainiert werden. Dies funktioniert, indem man ihnen eine Reihe echter und manipulierter Aufnahmen vorführt. Dadurch kann das Netz lernen, kleinste Unstimmigkeiten zu erkennen, die ein Mensch mit bloßem Auge übersehen würde. Derartige KI-Algorithmen sind dann in der Lage, automatisiert zu entscheiden, ob eine gegebene Audio- oder Videodatei echt oder nicht ist.

https://www.aisec.fraunhofer.de/

Anzeige

Artikel zu diesem Thema

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.