Dans le contexte de la Journée mondiale des réfugiés, les deux organisations ont récemment soumis à approbation sur Facebook, TikTok et YouTube 10 publicités perpétuant des contenus haineux xénophobes violents.
Diverses plateformes de médias sociaux. Photo : Pixabay.com
JOHANNESBURG – Une nouvelle expérience menée par le Legal Resource Center (LRC) et Global Witness a révélé des lacunes majeures dans la manière dont les entreprises de médias sociaux modèrent les discours de haine xénophobes sur leurs plateformes.
Dans le contexte de la Journée mondiale des réfugiés, les deux organisations ont récemment soumis à approbation sur Facebook, TikTok et YouTube 10 publicités perpétuant des contenus haineux xénophobes violents.
Les annonces ont toutes été soumises en anglais et en afrikaans, tandis que neuf d’entre elles ont également été soumises en isiXhosa et isiZulu.
Et bien qu’ils n’aient finalement jamais été publiés, presque tous ont été approuvés.
« Malgré la nature extrême et sans équivoque du contenu, chaque annonce a été approuvée pour publication par les trois plateformes, à l’exception d’une annonce que Facebook a rejetée en anglais et en afrikaans, bien qu’elle ait été approuvée en isiXhosa et isiZulu.
« Le message appelant la police à tuer les ‘étrangers illégaux’ a été approuvé dans toutes les langues par les trois plateformes. Après avoir été approuvé pour publication, Global Witness et LRC ont supprimé toutes les publicités avant qu’elles ne soient publiées », ont indiqué les organisations.
L’année dernière, les Nations Unies (ONU) ont exprimé leur inquiétude face à la montée de la xénophobie en Afrique du Sud.
ENTREPRISES SE CONFORMANT À SES PROPRES POLITIQUES ?
Sherylle Dass du LRC a déclaré Nouvelles des témoins oculaires qu’à travers cette expérience, ils voulaient tester si les entreprises de médias sociaux respectaient leurs propres politiques de modération de contenu pour s’assurer que leurs plateformes n’étaient pas utilisées pour perpétuer le problème.
« La violence xénophobe est en augmentation en Afrique du Sud et nous avons noté qu’elle se traduit par des préjudices réels et qu’une grande partie de la haine xénophobe a été dirigée via les plateformes de médias sociaux – en particulier avec l’opération Dudula ».
Elle a ajouté qu’avec les élections de 2024 qui approchent à grands pas, les résultats sont préoccupants.
« Nous avons noté des tendances sur un certain nombre de périodes – pas seulement en Afrique du Sud mais dans le monde entier, où il y a une montée croissante de l’autoritarisme et du populisme en politique et où les migrants sont considérés comme le groupe le plus vulnérable au sein de cette rhétorique populiste et ils sont généralement ceux qui sont diabolisés et blâmés pour les problèmes de société.
« Et nous croyons que la politique sud-africaine est également le cas – que les migrants sont blâmés pour le manque de prestations sociales et les impacts économiques difficiles. Et ce sont eux qui sont ciblés par des messages de haine et l’incitation à la violence comme raison et cause de le mécontentement du public sud-africain », a-t-elle déclaré.
« Il est donc important et crucial avant nos prochaines élections de 2024 que les plateformes de médias sociaux soient un espace sûr et exempt de discours de haine et de xénophobie ».
Global Witness a mené plus de 10 tests similaires dans des pays comme le Brésil, l’Éthiopie, l’Irlande, le Kenya et le Myanmar.
« Les résultats ont à chaque fois montré qu’il y a des lacunes flagrantes dans la façon dont ces entreprises détectent, bloquent et suppriment la propagation de la haine sur leurs plateformes », ont déclaré les organisations.
« C’est un autre résultat décevant pour les entreprises de médias sociaux. Il ne s’agit pas d’un échec ponctuel mais répété de l’application de leurs propres politiques en matière de discours de haine et d’incitation à la violence sur leurs plateformes », a déclaré Hannah Sharpe, responsable de la campagne Digital Threats chez Global Witness.
« Alors que nous approchons de l’une des années électorales les plus importantes au monde, où la rhétorique xénophobe sera exploitée à des fins politiques, nous nous attendons, à tout le moins, à ce que les plateformes maintiennent leurs propres politiques existantes – les avoir sur papier n’a de sens que si elles sont activement appliquées . Les conséquences dévastatrices de cette négligence ont été évidentes au Myanmar (Birmanie) et en Éthiopie. Le non-respect de ces politiques a des impacts réels et coûte des vies. »
Les organisations ont déclaré que la sécurité des migrants, des réfugiés et de tous les individus « restera compromise en Afrique du Sud ou dans tout autre pays jusqu’à ce que ces plateformes accordent la priorité à la modération du contenu, mènent des évaluations complètes des risques sur les droits de l’homme et l’impact sur la société, établissent des mesures de protection pendant les périodes électorales cruciales, et adopter une plus grande transparence et une responsabilité externe ».
PAS ASSEZ D’INVESTISSEMENT DANS LA MODÉRATION DE CONTENU
Dass a déclaré que les entreprises de médias sociaux n’investissaient pas suffisamment dans les ressources de modération de contenu au niveau local et que, par conséquent, les modérateurs n’étaient pas toujours sensibles à la culture et à la langue, en particulier dans les pays du Sud.
« Il y a un processus en deux étapes en termes de modération du contenu de la plupart des plateformes de médias sociaux. Le premier est un filtre généré par l’IA et il s’agit d’un programme informatique programmé pour identifier un discours de haine particulier et il y a un manque de transparence quant à la manière dont le système d’IA a été programmé pour identifier le discours de haine dans d’autres langues que l’anglais », a-t-elle déclaré.
« Ensuite, le second est la modération humaine du contenu. Et l’investissement réalisé par les plateformes de médias sociaux est loin d’être suffisant pour couvrir le contenu social, culturel et linguistique de la majorité des pays en dehors du Nord ».
La LRC et Global Witness ont appelé Meta, Google et TikTok à « investir dans des garanties équitables et efficaces pour protéger les droits démocratiques et humains dans le monde ».
Dass a déclaré qu’ils réitéraient l’appel mondial à des mécanismes de financement, de sauvegarde et de confiance plus équitables.
« Donc, ce que nous aimerions, c’est une modération de contenu correctement financée dans tous les pays où ils opèrent – en particulier maintenant, à l’approche des élections de 2024. Nous voulons nous assurer qu’ils évaluent, atténuent et publient régulièrement les risques de leurs services et les impacts sur les droits humains des personnes.
« Et nous voulons également qu’ils publient des informations sur les mesures qu’ils prennent dans chaque pays, en particulier dans les pays qui organisent des élections en 2024, et comment ils empêcheraient la propagation et la diffusion des discours de haine et de l’incitation à la violence ».
« LA HAINE N’A PAS SA PLACE »
Un porte-parole de Meta – la société mère de Facebook, a déclaré que les publicités en question violaient leurs politiques et avaient été supprimées.
« Malgré nos investissements continus, nous savons qu’il y aura des exemples de choses que nous manquerons ou que nous supprimerons par erreur, car les machines et les gens font des erreurs. C’est pourquoi les annonces peuvent être examinées plusieurs fois, y compris une fois qu’elles sont mises en ligne », a-t-elle déclaré.
Et TikTok a déclaré: « La haine n’a pas sa place sur TikTok. Bien que ces publicités ne soient jamais arrivées sur notre plate-forme, nos politiques publicitaires, ainsi que nos directives communautaires, interdisent le contenu publicitaire contenant des discours ou des comportements haineux.
« Le contenu publicitaire passe par plusieurs niveaux de vérification avant d’être approuvé, et nous supprimons le contenu non conforme. Nous révisons et améliorons régulièrement nos stratégies d’application et apprécions les commentaires des ONG, des universitaires et d’autres experts, ce qui nous aide à renforcer continuellement nos processus et nos politiques. »
Google, quant à lui, n’a pas répondu à une demande de commentaire.