Wie lässt sich prüfen, ob Informationen echt und vertrauenswürdig sind – gerade solche, die über das Internet oder die Sozialen Medien verbreitet werden?
Die Möglichkeit, etwa Videos und Fotos mit Hilfe Künstlicher Intelligenz (KI) zu manipulieren, machen eindeutige Antworten immer schwieriger. Forschende des Karlsruher Instituts für Technologie (KIT) haben sich im Auftrag des Europaparlaments mit den potenziellen Gefahren der Deepfake-Technologie beschäftigt und Optionen für eine bessere Regulierung entwickelt. Gemeinsam mit Partnern aus den Niederlanden, Tschechien und Deutschland haben sie die Ergebnisse ihrer Studie vor EU-Abgeordneten offiziell vorgestellt.
Deepfakes sind zunehmend realistisch wirkende Fotos, Audios oder Videos, in denen Personen mit Hilfe von KI-Technologien in neue Kontexte gestellt oder ihnen Worte in den Mund gelegt werden, die so niemals gesagt wurden. „Wir haben es mit einer neuen Generation digital manipulierter Medieninhalte zu tun, die seit einigen Jahren immer kostengünstiger und einfacher zu erzeugen sind und vor allem täuschend echt aussehen können“, sagt Dr. Jutta Jahnel, die sich am Institut für Technikfolgenabschätzung und Systemanalyse (ITAS) des KIT mit der gesellschaftlichen Dimension lernender Systeme beschäftigt. Die Technik eröffne durchaus neue Möglichkeiten für Kunstschaffende, für digitale Visualisierungen in Schulen oder Museen und helfe in der medizinischen Forschung.
Gleichzeitig bringen Deepfakes jedoch erhebliche Gefahren mit sich, wie die jetzt vorgestellte internationale Studie für den STOA-Ausschuss (steht für Scientific Technology Options Assessment) des Europäischen Parlaments zeigt. „Die Technologie kann missbraucht werden, um sehr effektiv Fake News und Desinformationen zu streuen“, so Jahnel, die den Beitrag des ITAS zur Studie koordiniert hat. So könnten gefälschte Audiodokumente dafür eingesetzt werden, juristische Prozesse zu beeinflussen oder in Misskredit zu bringen, und letztlich das Justizsystem bedrohen. Möglich wäre beispielsweise auch, mit einem fingierten Video einer Politikerin nicht nur persönlich zu schaden, sondern damit auch die Wahlchancen ihrer Partei zu beeinflussen und in letzter Konsequenz dem Vertrauen in demokratische Institutionen insgesamt zu schaden.
Kritischer Umgang mit Medieninhalten notwendig
Die Forschenden aus Deutschland, den Niederlanden und Tschechien machen konkrete Lösungsvorschläge. Aufgrund des rapiden technologischen Fortschritts dürfe man sich nicht auf Vorschriften zur Technikentwicklung beschränken. „Um die öffentliche Meinung manipulieren zu können, müssen Fakes nicht nur hergestellt, sondern vor allem auch verbreitet werden“, erläutert Jahnel. „Bei der Regelung zum Umgang mit Deepfakes müssen wir daher in erster Linie bei Internetplattformen und Medienunternehmen ansetzen“. KI-gestützte Technologien für Deepfakes werden sich jedoch auch so kaum ganz aus der Welt schaffen lassen. Im Gegenteil, die Forschenden sind davon überzeugt, dass sich Individuen und Gesellschaften künftig immer häufiger mit visuellen Desinformationen konfrontiert sehen. Essenziell sei es daher, solchen Inhalten künftig noch kritischer gegenüberzutreten und Fertigkeiten weiterzuentwickeln, die dabei helfen, die Glaubwürdigkeit von Medieninhalten kritisch zu hinterfragen. Auf deutscher Seite hat an der Studie neben dem ITAS das Fraunhofer-Institut für System- und Innovationsforschung mitgewirkt, in den Niederlanden das Rathenau Institut als Projektkoordinator und in Tschechien das Technology Centre CAS.
www.kit.edu/