Desinformation: Algorithmische Filterung in Zeiten des Ukraine-Krieges

Facebook kann die russische Desinformation nicht bekämpfen. Das zeigen Daten, die WDR, NDR und „Süddeutsche Zeitung“ ausgewertet haben. Facebook-Whistleblower Haugen kritisiert die Maßnahmen des Unternehmens als unzureichend. Er weist darüber hinaus auf ein grundsätzliches Problem hin: Die Algorithmen geben den extremsten Positionen die größte Reichweite.

Als Senior Lecturer am Department of Sociology der City, University of London hat Dr. Marco Bastos im Februar 2022 die Studie “Fact-Checking Misinformation: Eight Notes on Consensus Reality” mitverfasst. Diese Studie kombiniert Datenanalyse mit mehrstufiger Verarbeitung visueller Kommunikation, um die visuellen Rahmen staatlich geförderter Propaganda in sozialen Medien zu klassifizieren. Die Autoren stützen sich auf die Wahlintegritätsdaten von Twitter, um fünf Propagandaziele der Internet Research Agency zu untersuchen, darunter russische und amerikanische Partisanengruppen. Sie prüfen, inwieweit ihre Operationen von der kanonischen Staatspropaganda abweichen, die durch Symbole der nationalen Identität und heroische Männlichkeit gekennzeichnet ist.

Anzeige

Die Ergebnisse zeigen, dass die von der Internet Research Agency verwendeten visuellen Rahmen so gestaltet sind, dass sie die Vox Populi mit sympathischen, vertrauten oder attraktiven Gesichtern von gewöhnlichen Menschen verkörpern. Die Studie legt nahe, dass sich die staatlich geförderte Propaganda auf die subkulturellen und visuellen Möglichkeiten sozialer Plattformen eingestellt hat. Die Berichterstattung über den Krieg in der Ukraine in sozialen Medien bestätigt nachträglich diese Analyse, so Dr. Bastos.

„Es überrascht nicht, dass polarisierende Inhalte in den sozialen Medien während des russisch-ukrainischen Krieges florieren. Zermürbungskriege werden unweigerlich von Propaganda begleitet, die versucht, so wahrheitsgetreu wie möglich zu erscheinen. Dieser Kampf um das hegemoniale Narrativ wurde deutlich, als die russische Regierung beschlossen hat, den Begriff „spezielle Militäroperation“ durchzusetzen, um die russische Invasion in der Ukraine zu beschreiben. Der Streit wird wahrscheinlich immer unzusammenhängender werden, da Russen und Ukrainer Kriegsnarrative vorantreiben, in denen Fakten umstritten, nicht nachprüfbar sind oder allgemein als unrechtmäßig gelten.

In dieser brenzligen Situation ist es problematisch, dass soziale Plattformen keine externe Kontrolle über die algorithmischen Routinen bieten, die Inhalte auswählen, welche den Benutzern angezeigt werden sollen. Diese Algorithmen sind optimiert, um Inhalte zu priorisieren, die das Unternehmen als wichtig für die Nutzer erachtet. Die genaue Art dieser Optimierung wird jedoch durch den geschützten Charakter der Facebook-Algorithmen verschleiert, wobei sowohl die Daten als auch die Modelle, die den Algorithmen zugrunde liegen, einer Prüfung durch politische Entscheidungsträger oder die Forschungsgemeinschaft entzogen sind.

Anzeige

Zu den Algorithmen gehören Empfehlungssysteme, die auf kollaborativer Filterung (Filterung sozialer Informationen), inhaltsbasierter Filterung, einschränkungsbasierter Empfehlung und kritikbasierter Empfehlung basieren. Diese Empfehlungsalgorithmen werden kombiniert, um hochgradig personalisierte Ergebnisse für den einzelnen Nutzer zu erzielen. Die Propaganda in den sozialen Medien hat diese Hinweise natürlich aufgegriffen und die Beeinflussungsmaßnahmen so angepasst, dass identifizierbare und vertraute Gesichter gewöhnlicher Menschen eingesetzt werden. Ausgeklügelte Beeinflussungsmaßnahmen in den sozialen Medien sind praktisch nicht von organischen Inhalten zu unterscheiden, die durch Algorithmen verstärkt werden.

Problematisch ist auch, dass Facebook-Algorithmen einer intrinsischen Heuristik folgen, deren Ziele sich eher aus den Prioritäten des Unternehmens als aus den strengen Regeln der journalistischen Praxis ergeben. Dieser Prozess führt dazu, dass Hunderte von Inhalten destilliert werden, um dem Nutzer diejenigen anzuzeigen, die ihn den Vorhersagen zufolge am meisten interessieren könnten. Leider sind die Inhalte, mit denen die Nutzer am ehesten etwas anfangen können, nicht die, die am ehesten zutreffend sind. Vielmehr handelt es sich dabei um eine Untergruppe von Inhalten, die eher emotionale Reaktionen auslösen.

Es gibt auch immer mehr Beweise dafür, dass Facebook-Feed eine übermäßige Auswirkung auf harte Nachrichteninhalte hat, genau die Untergruppe von Inhalten, die dazu beitragen können, die Kluft zwischen Propaganda und tatsächlicher Realität zu überbrücken. Tageschehen und Politik sind eher von algorithmischen Änderungen betroffen als Nachrichten rund um Lifestyle, Sport und Kunst. Die asymmetrische Macht, die soziale Plattformen in den letzten zehn Jahren auf Nachrichtenorganisationen ausgeübt haben, ist eine weitere Kraft, die die Integrität des Informationsökosystems beeinträchtigt, insbesondere im Hinblick darauf, wie vertrauenswürdige Informationen und Nachrichten online abgerufen und konsumiert werden. Leider wird sich diese Kluft im Kontext eines Zermürbungskrieges wahrscheinlich nur noch weiter verschärfen.“

Marco

Bastos

Senior Lecturer in Media and Communication

City, University of London

Dr. Marco Bastos ist Senior Lecturer am Department of Sociology der City, University of London, wo er Medien- und Kommunikationstheorie und Forschungsmethoden lehrt. Davor hatte er Forschungspositionen an der University of Sao Paulo, der University of California at Davis und der Duke University inne.
Anzeige

Artikel zu diesem Thema

Weitere Artikel

Newsletter
Newsletter Box

Mit Klick auf den Button "Jetzt Anmelden" stimme ich der Datenschutzerklärung zu.