Der Cybersicherheits-Experte Christian Dörr sieht Deutschland beim Schutz gegen ausländische Desinformationskampagnen und Cyberangriffe nicht ausreichend gerüstet.
«Was hybride Bedrohungen angeht, sind wir leider überhaupt nicht gut vorbereitet», sagte der Forscher am Hasso-Plattner-Institut (HPI) in Potsdam der Deutschen Presse-Agentur. «Gerade die vergangenen zwei Jahre des Ukraine-Kriegs haben gezeigt, wie unvorbereitet und zum Teil handlungsunfähig wir als Gesellschaft bei hybriden Bedrohungen – angefangen von Desinformation und Fake News bis hin zu Angriffen auf unsere Infrastruktur – sind.»
Bei der 10. Potsdamer Konferenz für Nationale Cybersicherheit am Hasso-Plattner-Institut diskutieren am kommenden Mittwoch und Donnerstag (19./20. Juni) deutsche Sicherheitsbehörden mit Vertretern aus Wissenschaft und Wirtschaft über die Cybersicherheitslage in Deutschland. Die Spitzen des Bundeskriminalamts, des Verfassungsschutzes und des Bundesamts für Sicherheit in der Informationstechnik werden erwartet.
Künstliche Intelligenz kann Spaltung der Gesellschaft verstärken
Hybride Bedrohungen haben laut Bundesnachrichtendienst viele Gesichter. Einflussreiche ausländische Akteure setzen laut der Behörde seit geraumer Zeit auf eine Kombination etwa aus militärischen Mitteln, wirtschaftlichem Druck und verdeckter Propaganda, um ihre Ziele zu erreichen. Bundesinnenministerin Nancy Faeser warnt vor wachsenden Gefahren durch eine hybride Kriegsführung Russlands, dazu gehören unter anderem Einflussnahmeversuche etwa durch Desinformation und Fake-News. Seit dem Beginn des russischen Angriffskriegs gegen die Ukraine seien alle Schutzmaßnahmen gegen hybride Bedrohungen hochgefahren worden. Auch SPD und CDU waren in den Fokus russischer Cyberattacken geraten.
Künstliche Intelligenz (KI) kann aus Sicht des Cybersicherheits-Experten vom HPI auch Einfluss auf die Ausprägung extremer Positionen in der Gesellschaft haben. «Wir diskutieren mittlerweile viel über die fortschreitende Spaltung der Gesellschaft, darüber, dass es zunehmend schwerer fällt, offen gegenüber anderen Meinungen zu sein und Kompromisse zu finden», meinte Dörr. «Auch hier trägt leider KI einen Teil bei, indem in sozialen Medien Algorithmen Inhalte so auswählen und filtern, dass sie dem Nutzer ausschließlich das zeigen, was er erwartet und ihm gefällt, um ihn möglichst lange online und aktiv zu halten.» Als Folge blieben die Nutzer in einer algorithmisch gesteuerten «Echoblase» gefangen, praktisch isoliert von anderen Inhalten und nähmen in der Suche nach mehr oft immer extremere Positionen ein. Daher sei es wichtig, die Medienkompetenz der Nutzer zu stärken.
dpa