Meta, la société mère de Facebook, a contribué à de graves violations des droits humains contre la communauté tigréenne d’Éthiopie, a déclaré Amnesty International dans un nouveau rapport publié aujourd’hui.
montre comment Meta n’a une fois de plus pas réussi à freiner de manière adéquate la propagation de contenus prônant la haine et la violence, ciblant cette fois les Tigréens lors du conflit armé de novembre 2020 à novembre 2022 dans le nord de l’Éthiopie.
Amnesty International a déjà souligné la contribution de Meta aux violations des droits humains contre les Rohingyas au Myanmar et a mis en garde contre la récurrence de ces préjudices si le modèle commercial de Meta et ses algorithmes de mise en forme du contenu n’étaient pas fondamentalement réformés.
« Trois ans après ses échecs retentissants au Myanmar, Meta a une fois de plus – grâce à ses algorithmes de mise en forme du contenu et à son modèle économique gourmand en données – contribué à de graves violations des droits humains. Même avant le déclenchement du conflit dans le nord de l’Éthiopie, des organisations de la société civile et des experts des droits humains ont averti à plusieurs reprises que Meta risquait de contribuer à la violence dans le pays, et ont exhorté l’entreprise à prendre des mesures concrètes », a déclaré Agnès Callamard, secrétaire générale d’Amnesty International.
« Toutefois, Meta a ignoré ces avertissements et n’a pas pris les mesures d’atténuation appropriées, même après le déclenchement du conflit. En conséquence, Meta a une fois de plus contribué à de graves violations des droits humains, perpétrées cette fois contre la communauté tigréenne.
La plateforme Facebook est une source d’information majeure pour de nombreux Éthiopiens et est considérée comme une source d’information digne de confiance. Les algorithmes de Facebook ont eu des conséquences dévastatrices sur les droits humains en amplifiant les contenus préjudiciables ciblant la communauté tigréenne sur Facebook pendant le conflit armé.
Les recherches d’Amnesty International ont établi que les systèmes algorithmiques de Facebook ont intensifié la propagation de discours nuisibles ciblant la communauté tigréenne, tandis que les systèmes de modération de contenu de la plateforme n’ont pas réussi à détecter et à réagir de manière appropriée à ce type de contenu.
Ces échecs ont finalement contribué à l’assassinat du professeur de chimie de l’université tigréenne Meareg Amare. Amare a été tué par un groupe d’hommes après la publication de messages le ciblant sur Facebook le 3 novembre 2021.
Les publications sur Facebook contenaient son nom, sa photo, son lieu de travail, son adresse personnelle et affirmaient qu’il était un partisan du Front populaire de libération du Tigré (TPLF), l’accusant d’avoir volé d’importantes sommes d’argent. Ces allégations ont été démenties par sa famille.
Son fils Abrham Meareg estime que ces publications hostiles sur Facebook ont contribué à la mort de son père.
« Je savais que ce serait une condamnation à mort pour mon père », a déclaré Abraham Meareg à Amnesty International.
À l’époque, le conflit armé faisait rage dans le nord de l’Éthiopie, impliquant le TPLF, les Forces fédérales éthiopiennes et d’autres groupes armés.
Les documents internes de Meta examinés par Amnesty International montrent que Meta était consciente des insuffisances de ses mesures d’atténuation en Éthiopie et des risques que cela présentait dans un pays que l’entreprise elle-même considérait comme présentant un risque élevé de violence. Un document Meta interne de 2020 avertissait que « les stratégies d’atténuation actuelles ne suffisent pas » pour arrêter la propagation de contenus préjudiciables sur la plateforme Facebook en Éthiopie.
En plus d’amplifier les contenus préjudiciables, le faible temps de réponse de Meta et son refus de supprimer les contenus signalés ont amené plusieurs personnes interrogées par Amnesty International à penser qu’il ne servait à rien de signaler des contenus à l’entreprise.
Meta a reçu de nombreux avertissements avant et pendant le conflit de la part d’organisations de la société civile, d’experts en droits humains et de son propre conseil de surveillance de Facebook, qui ont recommandé à Meta d’entreprendre une évaluation indépendante de l’impact sur les droits humains en Éthiopie en 2021.
« La diffusion massive de ces messages a incité à la violence et à la discrimination à l’encontre de la communauté tigréenne, alimentant une situation déjà enflammée avec d’importantes tensions ethniques », a déclaré Agnès Callamard.
* Gelila, membre de la société civile éthiopienne, faisait partie du programme « Trusted Partner » de Meta – une initiative qui vise à fournir à des groupes sélectionnés de la société civile un canal désigné pour alerter Meta de tout contenu préjudiciable – a déclaré que Facebook n’avait pas réagi aux alertes émises. la situation des droits de l’homme dans le pays s’est aggravée.
« En tant que personne vivant en Éthiopie depuis longtemps, je peux dire que Facebook rend les communautés plus vulnérables aux conflits les unes avec les autres », a déclaré Gelila.
« Ils réagissent extrêmement lentement aux choses. Ils ne sont pas sensibles à ce qui se dit – je pense qu’ils ont des standards très éloignés de ce qui se passe sur le terrain.»
Meta devrait prendre des mesures urgentes pour atténuer de manière adéquate les risques posés par la plateforme Facebook en Éthiopie, qui est confrontée à une autre crise sécuritaire dans la région d’Amhara.
Cela est essentiel, étant donné que les enquêteurs nommés par l’ONU ont mis en garde contre d’éventuelles atrocités criminelles futures, une préoccupation reprise plus tard par le Conseiller spécial de l’ONU pour la prévention du génocide, qui a mis en garde contre un risque accru de génocide et d’atrocités criminelles connexes au Tigré, à Amhara, Régions Afar et Oromia.
Les algorithmes de mise en forme du contenu de Meta sont conçus pour maximiser l’engagement des utilisateurs dans le but de diffuser des publicités ciblées, ce qui a pour résultat de stimuler le contenu incendiaire, nuisible et source de division, qui a tendance à attirer le plus l’attention des utilisateurs.
En 2018, Meta a fait pivoter l’algorithme du fil d’actualité de Facebook autour d’une nouvelle métrique appelée « MSI » ou « Interactions sociales significatives », dans le but supposé de « réparer Facebook ».
Cependant, l’analyse par Amnesty International des preuves tirées des Facebook Papers – les documents Meta internes divulgués par la lanceuse d’alerte Frances Haugen en 2021 – montre que ce changement n’a pas « résolu » les problèmes associés aux algorithmes de Facebook ; au lieu de cela, les algorithmes sont restés programmés pour un engagement maximal, favorisant ainsi de manière disproportionnée les contenus incendiaires, y compris l’apologie de la haine.
Dans un document des Facebook Papers de 2021, il existe des preuves suggérant que le PDG de Meta, Mark Zuckerberg, est personnellement intervenu pour empêcher l’application de mesures d’atténuation dans des pays à haut risque comme l’Éthiopie, car ces mesures pourraient avoir interféré avec la métrique MSI.
Comme les principes fondamentaux du modèle commercial centré sur l’engagement de Meta n’ont pas changé, l’entreprise continue de présenter un danger important et permanent pour les droits humains, en particulier dans les contextes de conflit.
Meta a la responsabilité d’apporter réparation aux violations des droits humains auxquelles elle a contribué en Éthiopie.
Des réformes urgentes et de grande envergure sont nécessaires pour garantir que Meta ne contribue pas à nouveau à ces dommages en Éthiopie ou dans un autre pays.
Cela inclut le déploiement de mesures « briser le verre » – les mesures que Meta peut prendre dans des contextes de crise pour réduire le pouvoir de l’amplification algorithmique – dans les situations à haut risque dès qu’elles surviennent et garantir l’égalité et la cohérence entre les juridictions en termes de ressources. équipes de modération de contenu, de politique et de droits de l’homme à l’échelle mondiale.
Les États doivent remplir leur obligation de protéger les droits de l’homme en introduisant et en appliquant des lois permettant de freiner efficacement le modèle économique des Big Tech. Cela inclut l’interdiction de la publicité ciblée sur la base de pratiques de suivi invasives.
De même, les grandes entreprises technologiques ont également la responsabilité de respecter les droits de l’homme, indépendamment des obligations des États, et lorsqu’elles ne le font pas, elles doivent être tenues pour responsables des violations qu’elles ont causées ou auxquelles elles ont contribué.
: press@amnesty.org