Facebook risque d’être interdit au Kenya pour ne pas avoir mis fin aux discours de haine

Mis à jour à 9 h 30 HE, le 30 juillet: Le ministre kenyan des TIC a a dit le pays n’a pas l’intention de fermer Internet ou d’interdire Facebook. Il n’a cependant pas révélé comment le gouvernement réagissait à la propagation des discours de haine sur les sites sociaux.

L’organisme de surveillance de la cohésion ethnique du Kenya, la Commission nationale de cohésion et d’intégration (NCIC), a ordonné à Facebook d’arrêter la propagation du discours de haine sur sa plate-forme dans les sept jours, sous peine de suspension dans ce pays d’Afrique de l’Est.

Le chien de garde réagissait à un rapport du groupe de défense Global Witness et de Foxglove, une société juridique à but non lucratif, qui a pointé du doigt l’incapacité de Facebook à détecter les publicités incitant à la haine. Cela survient à l’approche des élections générales nationales du pays.

Le rapport de Global Witness a corroboré les propres conclusions du NCIC selon lesquelles Meta, la société mère de Facebook, tardait à supprimer et à empêcher les contenus haineux, attisant un environnement politique déjà instable. Le NCIC a maintenant appelé Meta à augmenter la modération avant, pendant et après les élections, tout en lui donnant une semaine pour se conformer ou être interdit dans le pays.

L’un des mandats du NCIC, qui a été formé après les violences post-électorales de 2007 qui ont fait 1 300 morts au Kenya, est de faire des recommandations sur les mesures correctives à prendre contre les entités ou les personnes qui commettent et perpétuent des discours de haine. Il y a quelques mois, il a interdit l’utilisation de certains mots codés censés alimenter les tensions ethniques.

« Facebook enfreint les lois de notre pays. Ils se sont permis d’être un vecteur de discours de haine et d’incitation, de désinformation et de désinformation », a déclaré le commissaire du NCIC, Danvas Makori.

Global Witness et Foxglove ont également demandé à Meta d’arrêter les publicités politiques et d’utiliser des mesures de « bris de glace » – les méthodes de modération d’urgence plus strictes qu’elle a utilisées pour endiguer la désinformation et les troubles civils lors des élections américaines de 2020.

Au Kenya, Facebook a une pénétration de 82 %, ce qui en fait le deuxième réseau social le plus utilisé après WhatsApp.

Les modèles d’IA de Facebook ne parviennent pas à détecter les appels à la violence

Pour tester l’affirmation de Facebook selon laquelle ses modèles d’IA peuvent détecter les discours de haine, Global Witness a soumis 20 publicités appelant à la violence et à la décapitation, en anglais et en swahili, qui ont toutes été approuvées, sauf une. Le groupe de défense des droits de l’homme affirme avoir utilisé des publicités car, contrairement aux publications, elles sont soumises à un processus d’examen et de modération plus strict. Ils pourraient également supprimer des publicités avant leur mise en ligne.

« Toutes les publicités que nous avons soumises violent les normes communautaires de Facebook, qualifiées de discours de haine et d’appels à la violence basés sur l’ethnie. Une grande partie du discours était déshumanisant, comparant des groupes tribaux spécifiques à des animaux et appelant au viol, à l’abattage et à la décapitation », a déclaré Global Witness dans un communiqué.

À la suite des conclusions, Ava Lee, responsable de la campagne Digital Threats to Democracy de Global Witness, a déclaré : « Facebook a le pouvoir de faire ou de défaire les démocraties et pourtant, à maintes reprises, nous avons vu l’entreprise donner la priorité aux profits plutôt qu’aux personnes ».

« Nous avons été consternés de découvrir que même après avoir prétendu améliorer ses systèmes et augmenter ses ressources avant les élections au Kenya, il approuvait toujours les appels manifestes à la violence ethnique. Ce n’est pas un cas unique. Nous avons également constaté la même incapacité à fonctionner correctement au Myanmar et en Éthiopie au cours des derniers mois. Les conséquences possibles de l’inaction de Facebook autour des élections au Kenya et d’autres élections à venir dans le monde, du Brésil aux élections de mi-mandat aux États-Unis, sont terrifiantes.

Entre autres mesures, Global Witness demande à Facebook de doubler la modération du contenu.

En réponse, le géant des médias sociaux affirme qu’il investit dans les personnes et la technologie pour mettre fin à la désinformation et aux contenus préjudiciables.

Il a déclaré qu’il avait « embauché plus de réviseurs de contenu pour examiner le contenu de nos applications dans plus de 70 langues, y compris le swahili ». En six mois jusqu’au 30 avril, la société a signalé avoir supprimé plus de 37 000 éléments de contenu violant les politiques de discours de haine, et 42 000 autres pour avoir encouragé la violence et l’incitation sur Facebook et Instagram.

Meta a déclaré à TechCrunch qu’il travaille également en étroite collaboration avec des acteurs civiques tels que les commissions électorales et les organisations de la société civile pour voir « comment Facebook et Instagram peuvent être un outil positif pour l’engagement civique et les mesures qu’ils peuvent prendre pour rester en sécurité tout en utilisant nos plateformes ».

D’autres réseaux sociaux comme Twitter et récemment TikTok sont également sous le feu des projecteurs pour ne pas jouer un rôle plus proactif dans la modération du contenu et endiguer la propagation du discours de haine, qui est perçu comme alimentant les tensions politiques dans le pays.

Le mois dernier, une étude de la Fondation Mozilla a révélé que TikTok alimentait la désinformation au Kenya. Mozilla est parvenu à la conclusion après avoir examiné 130 vidéos très regardées partageant du contenu rempli de discours de haine, d’incitation et de désinformation politique – contredisant la politique de TikTok contre les discours de haine et le partage de contenu discriminatoire, incitatif et synthétique.

Dans le cas de TikTok, Mozilla a conclu que la méconnaissance des modérateurs de contenu avec le contexte politique du pays était l’une des principales raisons pour lesquelles certains messages incendiaires n’ont pas été supprimés, permettant la propagation de la désinformation sur l’application sociale.

Les appels aux plateformes de médias sociaux pour qu’ils emploient des mesures plus strictes interviennent alors que les discussions politiques animées, les opinions divergentes et les discours de haine purs et simples de la part des politiciens et des citoyens augmentent à l’approche des élections du 9 août.

Source-146