Facebook hat die Sichtbarkeit palästinensischer Medien nach den Anschlägen vom 7. Oktober 2023 stark eingeschränkt, wie aus einer am Mittwoch, dem 18. Dezember, veröffentlichten BBC-Untersuchung hervorgeht. Instagram, ein weiteres Eigentum der Meta-Gruppe, Außerdem habe das Unternehmen im Namen der Bekämpfung von Hassreden die Moderation von Kommentaren palästinensischer Konten verschärft, räumte das Unternehmen ein.
Arabische Journalisten von BBC News haben Daten zur Sichtbarkeit palästinensischer, israelischer und arabischsprachiger Medien in den Jahren vor und nach dem Anschlag vom 7. Oktober zusammengestellt. Zu diesen sogenannten „Engagement“-Daten – einer Kennzahl, die die Wirkung und Sichtbarkeit eines Kontos in sozialen Netzwerken widerspiegelt – gehörten Reaktionen, Kommentare und Shares. Die von der BBC zusammengestellten Zahlen zeigen einen sehr deutlichen Rückgang des Engagements der palästinensischen Medien seit dem 7. Oktober 2023, obwohl andere Medien, die über den Konflikt berichten, sowohl israelische als auch nicht-palästinensische arabischsprachige Medien, einen Anstieg ihres Engagements verzeichnen konnten.
So haben laut BBC die Facebook-Seiten von zwanzig palästinensischen Medien, die im Gazastreifen oder im Westjordanland tätig sind, seit dem 7. Oktober 77 % an öffentlichem Engagement verloren. Die Aufrufe des Facebook-Kontos von Palestine TV wären trotz seiner 5,8 Millionen Abonnenten um 60 % zurückgegangen. Im Gegenteil: Die zwanzig analysierten israelischen Medien verzeichneten einen Anstieg ihres Engagements um 37 %. Dieser durch die Berichterstattung über den Konflikt bedingte Anstieg war auf den Seiten von dreißig der analysierten arabischsprachigen Medien zu finden, darunter Al-Jazeera und Sky News Arabia, deren Engagement sich fast verdoppelt hat.
Maßnahmen zur „Reaktion auf einen Anstieg hasserfüllter Inhalte“
Ein Beweis dafür, dass dieser Unterschied in der Sichtbarkeit nicht nur durch die Schwierigkeiten von Facebook bei der Moderation von Inhalten in arabischer Sprache erklärt werden kann. Die „Facebook-Akten“, interne Dokumente, die im Jahr 2021 durchsickerten, zeugten somit von einer unzureichenden Besetzung der arabischsprachigen Moderationsteams und von Fehlfunktionen in den Algorithmen, die für die Erkennung terroristischer Inhalte zuständig sind. In mehr als drei von vier Fällen lagen sie falsch, was zur Entfernung legitimer Inhalte führte.
Als Reaktion auf diese Daten hat Meta erinnerte daran, dass diese Entwicklung mit Änderungen in der Moderationspolitik zusammenhing, die im Oktober 2023 umgesetzt wurden. Diese zielten insbesondere auf die Entfernung von Inhalten ab, die mit der Hamas in Verbindung stehen, die von den Vereinigten Staaten als terroristische Organisation eingestuft wurde und auf der Liste gefährlicher Organisationen und Personen steht Facebook. Die Ausrichtung dieser Liste an außenpolitischen Entscheidungen der USA, die möglicherweise zu einer Moderationsvoreingenommenheit bei Konflikten im Ausland führen könnte, wurde von ehemaligen Facebook-Mitarbeitern kritisiert.
Ein Meta-Mitarbeiter erklärte der BBC unter der Bedingung, anonym zu bleiben, dass in der Woche nach dem 7. Oktober auch der Algorithmus von Instagram geändert worden sei, um die Moderation von Kommentaren palästinensischer Konten zu verschärfen. Meta bestätigte die Existenz dieser Änderung und glaubte, dass es notwendig sei, auf das zu reagieren, was sie als a bezeichnete „Höhepunkt hasserfüllter Inhalte“. Sie fügte hinzu, dass sich die zu Beginn des Streits geänderten Moderationsrichtlinien von Instagram wieder normalisiert hätten, ohne anzugeben, ob dies auch für Änderungen am Facebook-Algorithmus gelte – als Meta dazu befragt wurde, antwortete sie nicht Die Welt zum Zeitpunkt der Veröffentlichung dieses Artikels.
Es ist nicht das erste Mal, dass Metas Moderationspolitik Voreingenommenheit im Hinblick auf den Nahostkonflikt vorgeworfen wird. Im Dezember 2023 prangerte die Organisation Human Rights Watch (HRW) Zensur an „systemisch“ pro-palästinensische Beiträge auf Meta-Plattformen. Die Debatte findet ebenfalls vor dem 7. Oktober statt. HRW hatte Meta bereits 2021 Zensur vorgeworfen: Meta verpflichtete sich daraufhin zu einer Änderung seiner Moderationsrichtlinien. Ein Versprechen, das nach Angaben der Organisation nicht eingehalten wurde.