Meta échoue dans sa tentative d’être retiré en tant que partie d’un procès d’exploitation contre lui et son partenaire de modération Sama au Kenya

Plus de drame se prépare pour la société mère de Facebook Meta sur le continent africain. Un tribunal kenyan a rejeté aujourd’hui la demande de Meta d’être retirée en tant que partie dans un procès intenté l’année dernière contre elle et Sama, son principal sous-traitant pour la modération de contenu en Afrique. Ensemble, les deux sont accusés d’exploitation et de lutte contre les syndicats.

Meta avait cherché à se distancier de l’affaire, affirmant qu’il s’agit d’une société étrangère faisant des affaires au Kenya, et qu’elle passe un contrat avec Sama mais n’est pas une entreprise opérant au Kenya même. Cependant, une décision rendue aujourd’hui par Jacob Kariuki, le juge du tribunal du travail et des relations de travail du Kenya, a déterminé que Meta restera une partie dans l’affaire.

« Les noms des deuxième et troisième répondants [Meta Platforms Inc and Meta platforms Ireland Ltd] ne sera pas radié à ce stade », a déclaré le juge lors de la décision d’aujourd’hui. « L’avis de motion est rejeté. » Il semble que, même si Meta n’est pas constituée en société au Kenya, certains aspects de son fonctionnement dans le pays la rendent malgré tout responsable. La décision complète doit être publiée aujourd’hui ou demain.

Meta et Sama sont poursuivis au Kenya par Daniel Motaung, un ressortissant sud-africain, qui dénonce le travail forcé, l’exploitation, la traite des êtres humains, les relations de travail injustes, le démantèlement des syndicats et l’incapacité à fournir une santé mentale et un soutien psychosocial « adéquats ». Motaung aurait été licencié pour avoir organisé une grève en 2019 et tenté de syndiquer les employés de Sama.

Après le dépôt de l’affaire, Meta a demandé à être radiée de la poursuite, citant qu’elle n’est pas constituée dans le pays d’Afrique de l’Est et que Motaung n’était pas son employé mais celui de Sama.

Les modérateurs de Sama fournissent des services de modération de contenu sur les plates-formes de Meta – qui incluent Facebook, Instagram, Messenger et WhatsApp – pour supprimer le contenu qui encourage la haine, la désinformation et la violence. Parmi les autres clients de Sama, citons OpenAI, qui a passé un contrat avec Sama pour que des travailleurs au Kenya l’aident à étiqueter les contenus toxiques et violents dans le cadre du développement de son chatbot d’IA générative ChatGPT.

Pour compliquer les choses, à la suite de la poursuite, Sama a déclaré en janvier qu’elle fermerait son centre de modération de contenu au Kenya, invoquant la nécessité de rationaliser les opérations.

Ceci est une histoire en développement.

Source-146