Facebook a fortement limité la visibilité des médias palestiniens à la suite des attaques du 7 octobre 2023, révèle une enquête de la BBC parue mercredi 18 décembre. Instagram, autre propriété du groupe Meta, a également durci la modération des commentaires de comptes palestiniens, a admis l’entreprise, au nom de la lutte contre les discours de haine.

Les journalistes de BBC News Arabic ont compilé, sur les années précédant et suivant l’attaque du 7-Octobre, des données liées à la visibilité de médias palestiniens, israéliens et arabophones. Ces données dites « d’engagement » – une métrique qui reflète l’impact et la visibilité d’un compte sur les réseaux sociaux – incluaient les réactions, commentaires et partages. Les chiffres compilés par la BBC montrent une très nette perte en engagement des médias palestiniens depuis le 7 octobre 2023, alors même que les autres médias couvrant le conflit, israéliens comme arabophones non-palestiniens, ont vu le leur augmenter.

Ainsi, selon la BBC, les pages Facebook de vingt médias palestiniens opérant depuis la bande de Gaza ou la Cisjordanie ont perdu 77 % en engagement du public depuis le 7 octobre. Les vues du compte Facebook de Palestine TV auraient ainsi baissé de 60 %, malgré ses 5.8 millions d’abonnés. Au contraire, les vingt médias israéliens analysés auraient vu leur engagement augmenter de 37 %. Cette hausse, portée par la couverture du conflit, se retrouverait sur les pages de trente des médias arabophones analysés, tels qu’Al-Jazeera et Sky News Arabia, dont l’engagement a quasiment doublé.

Des mesures pour « répondre à un pic de contenus haineux »

Une preuve que cette différence de visibilité ne s’explique pas uniquement par les difficultés de Facebook à modérer les contenus en langue arabe. Les « Facebook files », des documents internes qui avaient fuité en 2021, attestaient ainsi des effectifs insuffisants de ses équipes de modération arabophones, et de dysfonctionnements de ses algorithmes chargés de reconnaître les contenus critiquant le terrorisme. Ces derniers se trompaient plus de trois fois sur quatre, conduisant à la suppression de contenus légitimes.

En réponse à ces données, Meta a rappelé que cette évolution était liée à des changements dans la politique de modération mis en œuvre en octobre 2023. Ceux-ci visaient notamment la suppression de contenus liés au Hamas, classé comme organisation terroriste par les Etats-Unis et membre de la liste d’organismes et individus dangereux de Facebook. L’alignement de cette liste sur les décisions de politique étrangère américaines, pouvant introduire des biais de modération dans des conflits à l’étranger, a été critiqué par d’anciens employés de Facebook.

Un employé de Meta, sous couvert de l’anonymat, a expliqué à la BBC que l’algorithme d’Instagram avait aussi été changé dans la semaine suivant le 7-Octobre, afin de durcir la modération des commentaires écrits par des comptes palestiniens. Meta a confirmé l’existence de ce changement, estimant qu’il était alors nécessaire pour répondre à ce qu’elle a appelé un « pic de contenus haineux ». Elle a ajouté que les politiques de modération d’Instagram modifiées au début du conflit étaient revenues à la normale, sans préciser si c’était également le cas des modifications apportées à l’algorithme de Facebook – interrogé sur ce point, Meta n’était pas revenu vers Le Monde au moment de la parution de cet article.

Ce n’est pas la première fois que la politique de modération de Meta est accusée d’être partiale sur le conflit au Proche-Orient. En décembre 2023, l’organisation Human Rights Watch (HRW) avait dénoncé une censure « systémique » des posts propalestiniens sur les plateformes de Meta. Le débat est d’ailleurs antérieur au 7-Octobre. HRW avait déjà accusé Meta de censure en 2021 : Meta s’était alors engagé à modifier ses politiques de modération. Une promesse qui selon l’organisation n’a pas été tenue.

Le Monde

Réutiliser ce contenu
Share.
Exit mobile version