Une entreprise basée à Barcelone qui travaille comme sous-traitant de Meta, fournissant des services de modération de contenu pour Facebook et Instagram, a été jugée responsable par un tribunal espagnol du préjudice psychologique subi par un travailleur. La décision, rendue jeudi, selon la presse locale, est la première fois qu’un tribunal espagnol déclare une société de modération de contenu responsable des troubles mentaux subis par un travailleur.
Selon un article paru jeudi dans El Periódico, la décision, rendue au début du mois, concerne une contestation déposée contre le sous-traitant local de Meta, CCC Barcelona Digital Services, par un Brésilien de 26 ans qui suit un traitement psychiatrique depuis cinq ans. en raison de l’exposition à des contenus extrêmes et violents sur Facebook et Instagram, tels que des meurtres, des suicides, du terrorisme et de la torture.
Le travailleur en question, qui a commencé à modérer le contenu de Facebook et d’Instagram en 2018, aurait subi toute une série de préjudices psychologiques, notamment des attaques de panique, des comportements d’évitement, une inquiétude excessive à l’idée de souffrir de maladies, des troubles du sommeil, des difficultés à avaler et une thanatophobie importante (anxiété due à la peur de la mort), selon le journal.
Le tribunal de Barcelone a reconnu que les problèmes mentaux dont souffre le travailleur ne constituent pas une maladie courante mais un accident du travail, selon le journal. Le sous-traitant de Meta avait traité son absence du travail comme une maladie courante et cherchait à nier toute responsabilité pour tout préjudice psychologique subi en examinant les contenus violents téléchargés sur Facebook et Instagram.
Dans une publication sur les réseaux sociaux en réponse à la décision du tribunal, le cabinet d’avocats représentant le travailleur, Espacio Jurídico Feliu Fins, a décrit le résultat comme une victoire majeure pour tous les travailleurs souffrant de problèmes de santé mentale en raison de leur travail.
« Les méta et les médias sociaux en général doivent reconnaître l’ampleur de ce problème et doivent changer de stratégie », a écrit le cabinet d’avocats dans le message. [in Spanish; this is a machine translation]. « Au lieu de poursuivre une stratégie de négation du problème, ils doivent accepter que cette horrible réalité dont souffrent ces travailleurs est aussi réelle que la vie elle-même.
« Le jour où ils l’affronteront et y feront face, ce jour-là, tout changera. Tant que cela ne se produira pas, nous veillerons à ce que cela se fasse par le biais du système juridique. Nous avancerons étape par étape, sans hâte, mais sans hésitation. Et surtout, avec une détermination totale pour gagner.
L’externalisation de l’examen des contenus toxiques par Meta à divers sous-traitants tiers, qui fournissent des dizaines de travailleurs – généralement – faiblement rémunérés, utilisés comme filtres humains pour la violence extrême et d’autres actes horribles téléchargés sur ses réseaux sociaux, a été une source d’inquiétude. des histoires depuis des années. Et pourtant, la pratique continue.
En mai 2020, Meta a accepté de payer 52 millions de dollars pour régler un recours collectif aux États-Unis intenté par des modérateurs de contenu travaillant pour des tiers fournissant des services de révision de contenu pour ses réseaux sociaux, qui avaient allégué que l’examen d’images violentes et graphiques les avait amenés à développer des troubles post-traumatiques. trouble de stress.
L’entreprise est également confrontée à un litige en Afrique où un modérateur travaillant pour Sama, un sous-traitant de Meta au Kenya, poursuit les deux sociétés pour des allégations qui incluent également l’incapacité de fournir un soutien psychologique et psychosocial « adéquat ».
Meta a refusé de commenter la décision rendue contre son sous-traitant en Espagne. Mais le géant des réseaux sociaux a fourni des informations générales concernant son approche en matière d’externalisation de la modération du contenu, affirmant que ses contrats avec les tiers avec lesquels il travaille sur l’examen du contenu contiennent des attentes selon lesquelles ils prendront des dispositions dans des domaines tels que le conseil, la formation et autre soutien aux travailleurs.
Le géant de la technologie a également déclaré que ses contrats exigent que les sous-traitants fournissent une assistance sur site 24h/24 et 7j/7 avec des praticiens qualifiés, en plus d’offrir un service de garde et un accès à des soins de santé privés dès le premier jour d’embauche.
Meta a également indiqué qu’elle fournit des solutions techniques aux sous-traitants destinées à permettre aux réviseurs de contenu de limiter autant que possible leur exposition au matériel graphique qu’ils sont invités à modérer. Il a indiqué que ces outils peuvent être personnalisés par les évaluateurs afin que le contenu graphique apparaisse entièrement flou, en noir et blanc, flou pour la première image, lu sans son ou désactivé la lecture automatique.
Cependant, les remarques générales de l’entreprise n’abordent pas la possibilité que les services d’assistance et les outils de sélection soient compromis par des quotas de productivité et de performance exigeants, qui peuvent être imposés aux évaluateurs par les sous-traitants – ce qui pourrait, en pratique, rendre difficile pour ces travailleurs l’accès à un soutien adéquat. tout en continuant à fonctionner aux tarifs exigés par leurs employeurs.
En octobre dernier, le journal barcelonais La Vanguardia rapportait qu’environ 20 % du personnel des services numériques de CCC Barcelone était en arrêt de travail en raison d’un traumatisme psychologique dû à l’examen de contenus toxiques. Dans l’article, le journal cite un travailleur qualifiant le soutien apporté par son employeur et le sous-traitant de Meta de « très insuffisant ».
Un autre rapport du même mois, dans El Nacional, parle d’un « taux de réussite » élevé (98 %) que les travailleurs doivent atteindre – ce qui signifie que les décisions de chaque modérateur doivent correspondre à celles de leurs collègues, et celui de l’auditeur principal, la grande majorité du temps, avec le risque d’être licencié si son taux baisse, selon le même rapport.
L’utilisation d’outils de filtrage qui masquent entièrement ou partiellement le contenu à examiner pourrait clairement rendre plus difficile pour les évaluateurs d’atteindre des objectifs de performance exigeants. Les travailleurs peuvent donc considérer comme un risque l’utilisation d’outils susceptibles de réduire l’exactitude de leurs évaluations, et les voir échouer par rapport à leurs pairs, car cela pourrait mettre en péril leur emploi continu – les décourageant ainsi de prendre des mesures qui pourraient mieux les protéger contre l’exposition à des risques. contenu psychologiquement préjudiciable.
Le travail posté systématiquement imposé aux modérateurs de contenu peut également contribuer au développement de problèmes de santé mentale, car il est connu que les perturbations des habitudes de sommeil contribuent au stress. De plus, le recours systématique à de jeunes travailleurs mal payés dans les fermes de modération de contenu implique qu’un risque élevé d’épuisement professionnel est intégré au modèle, ce qui suggère qu’il s’agit d’une industrie à portes fermées configurée autour de la gestion de la toxicité via un taux de désabonnement élevé ; ou, essentiellement, le burn-out en tant que service externalisé.
Les décisions de justice imposant aux examinateurs de contenu tiers de prendre soin de la santé mentale des travailleurs pourraient toutefois imposer des limites au modèle.
Une demande de commentaires envoyée à Telus, la société canadienne propriétaire de CCC Barcelona Digital Services, n’avait pas reçu de réponse au moment de mettre sous presse.