Microsoft Research Asia hat kürzlich eine Künstliche Intelligenz namens VASA-1 vorgestellt, die in der Lage ist, aus einem einzigen Foto und einem Audioclip hochrealistische Deepfake-Videos zu generieren.
VASA-1 nutzt maschinelle Lernverfahren, um realistische Videos zu erzeugen. Indem es auf umfangreiche Daten aus dem VoxCeleb2-Datensatz trainiert wurde, kann das Modell nicht nur die Lippenbewegungen präzise an Audioaufnahmen anpassen, sondern auch komplexe Gesichtsausdrücke und Kopfbewegungen simulieren.
Die durch VASA-1 erzeugten Videos haben eine Auflösung von 512×512 Pixeln bei einer Bildrate von 40 Frames pro Sekunde, was für eine flüssige und natürliche Darstellung sorgt. Die geringe Startlatenz ermöglicht eine schnelle Verarbeitung und Generierung der Videos, wodurch das Modell für Echtzeitanwendungen geeignet ist. Trotz dieser hohen Qualität sind in den Videos aktuell noch erkennbare Eigenschaften vorhanden, die auf die KI-Generierung hinweisen. Aber es ist wohl nur eine Frage der Zeit, bis auch die kleinen Fehler ausgemerzt sind.
Das Potenzial von VASA-1 ist beträchtlich – im Guten wie im Negativen. Mit der Fähigkeit, überzeugende Deepfakes zu erstellen, sind aber vor allem ernsthafte ethische Bedenken verbunden. Microsoft hat klargestellt, dass das Modell nicht öffentlich zugänglich gemacht wird, solange nicht sichergestellt ist, dass es verantwortungsvoll eingesetzt werden kann.
Die Regulierung von Deepfake-Technologien bleibt eine globale Herausforderung. Verschiedene Länder arbeiten bereits an Gesetzen, um den Missbrauch einzudämmen und gleichzeitig Innovationen zu fördern. In den USA und Großbritannien wurden bereits Maßnahmen ergriffen, um nicht einvernehmliche Deepfakes zu bekämpfen und die öffentliche Sicherheit zu schützen.
Dass dies schon jetzt eine reale Bedrohung ist, machte ein Fall klar: In einem Betrugsfall wurden etwa 25 Millionen Dollar von einem multinationalen Unternehmen in Hongkong durch den Einsatz von Deepfake-Technologie erbeutet. Lokale Medien berichten, wie Betrüger die perfide Technik nutzten, um einen Mitarbeiter der Finanzabteilung des Unternehmens zu täuschen.