Facebook kann die russische Desinformation nicht bekämpfen. Das zeigen Daten, die WDR, NDR und “Süddeutsche Zeitung” ausgewertet haben. Facebook-Whistleblower Haugen kritisiert die Maßnahmen des Unternehmens als unzureichend. Er weist darüber hinaus auf ein grundsätzliches Problem hin: Die Algorithmen geben den extremsten Positionen die größte Reichweite.
Als Senior Lecturer am Department of Sociology der City, University of London hat Dr. Marco Bastos im Februar 2022 die Studie “Fact-Checking Misinformation: Eight Notes on Consensus Reality” mitverfasst. Diese Studie kombiniert Datenanalyse mit mehrstufiger Verarbeitung visueller Kommunikation, um die visuellen Rahmen staatlich geförderter Propaganda in sozialen Medien zu klassifizieren. Die Autoren stützen sich auf die Wahlintegritätsdaten von Twitter, um fünf Propagandaziele der Internet Research Agency zu untersuchen, darunter russische und amerikanische Partisanengruppen. Sie prüfen, inwieweit ihre Operationen von der kanonischen Staatspropaganda abweichen, die durch Symbole der nationalen Identität und heroische Männlichkeit gekennzeichnet ist.
Die Ergebnisse zeigen, dass die von der Internet Research Agency verwendeten visuellen Rahmen so gestaltet sind, dass sie die Vox Populi mit sympathischen, vertrauten oder attraktiven Gesichtern von gewöhnlichen Menschen verkörpern. Die Studie legt nahe, dass sich die staatlich geförderte Propaganda auf die subkulturellen und visuellen Möglichkeiten sozialer Plattformen eingestellt hat. Die Berichterstattung über den Krieg in der Ukraine in sozialen Medien bestätigt nachträglich diese Analyse, so Dr. Bastos.
“Es überrascht nicht, dass polarisierende Inhalte in den sozialen Medien während des russisch-ukrainischen Krieges florieren. Zermürbungskriege werden unweigerlich von Propaganda begleitet, die versucht, so wahrheitsgetreu wie möglich zu erscheinen. Dieser Kampf um das hegemoniale Narrativ wurde deutlich, als die russische Regierung beschlossen hat, den Begriff “spezielle Militäroperation” durchzusetzen, um die russische Invasion in der Ukraine zu beschreiben. Der Streit wird wahrscheinlich immer unzusammenhängender werden, da Russen und Ukrainer Kriegsnarrative vorantreiben, in denen Fakten umstritten, nicht nachprüfbar sind oder allgemein als unrechtmäßig gelten.
In dieser brenzligen Situation ist es problematisch, dass soziale Plattformen keine externe Kontrolle über die algorithmischen Routinen bieten, die Inhalte auswählen, welche den Benutzern angezeigt werden sollen. Diese Algorithmen sind optimiert, um Inhalte zu priorisieren, die das Unternehmen als wichtig für die Nutzer erachtet. Die genaue Art dieser Optimierung wird jedoch durch den geschützten Charakter der Facebook-Algorithmen verschleiert, wobei sowohl die Daten als auch die Modelle, die den Algorithmen zugrunde liegen, einer Prüfung durch politische Entscheidungsträger oder die Forschungsgemeinschaft entzogen sind.
Zu den Algorithmen gehören Empfehlungssysteme, die auf kollaborativer Filterung (Filterung sozialer Informationen), inhaltsbasierter Filterung, einschränkungsbasierter Empfehlung und kritikbasierter Empfehlung basieren. Diese Empfehlungsalgorithmen werden kombiniert, um hochgradig personalisierte Ergebnisse für den einzelnen Nutzer zu erzielen. Die Propaganda in den sozialen Medien hat diese Hinweise natürlich aufgegriffen und die Beeinflussungsmaßnahmen so angepasst, dass identifizierbare und vertraute Gesichter gewöhnlicher Menschen eingesetzt werden. Ausgeklügelte Beeinflussungsmaßnahmen in den sozialen Medien sind praktisch nicht von organischen Inhalten zu unterscheiden, die durch Algorithmen verstärkt werden.
Problematisch ist auch, dass Facebook-Algorithmen einer intrinsischen Heuristik folgen, deren Ziele sich eher aus den Prioritäten des Unternehmens als aus den strengen Regeln der journalistischen Praxis ergeben. Dieser Prozess führt dazu, dass Hunderte von Inhalten destilliert werden, um dem Nutzer diejenigen anzuzeigen, die ihn den Vorhersagen zufolge am meisten interessieren könnten. Leider sind die Inhalte, mit denen die Nutzer am ehesten etwas anfangen können, nicht die, die am ehesten zutreffend sind. Vielmehr handelt es sich dabei um eine Untergruppe von Inhalten, die eher emotionale Reaktionen auslösen.
Es gibt auch immer mehr Beweise dafür, dass Facebook-Feed eine übermäßige Auswirkung auf harte Nachrichteninhalte hat, genau die Untergruppe von Inhalten, die dazu beitragen können, die Kluft zwischen Propaganda und tatsächlicher Realität zu überbrücken. Tageschehen und Politik sind eher von algorithmischen Änderungen betroffen als Nachrichten rund um Lifestyle, Sport und Kunst. Die asymmetrische Macht, die soziale Plattformen in den letzten zehn Jahren auf Nachrichtenorganisationen ausgeübt haben, ist eine weitere Kraft, die die Integrität des Informationsökosystems beeinträchtigt, insbesondere im Hinblick darauf, wie vertrauenswürdige Informationen und Nachrichten online abgerufen und konsumiert werden. Leider wird sich diese Kluft im Kontext eines Zermürbungskrieges wahrscheinlich nur noch weiter verschärfen.”