L’algorithme de Facebook « discrimine systématiquement » dans l’orientation des offres d’emploi vers des groupes d’âge et de sexe spécifiques
Contenu de l’article
Meta Platforms Inc. « discrimine régulièrement » en orientant les offres d’emploi vers des groupes d’âge et de sexe spécifiques sur sa plate-forme Facebook, une organisation de femmes camionneurs alléguée dans une plainte pour atteinte aux droits civils aux États-Unis.
Publicité 2
Contenu de l’article
« L’algorithme de Facebook agit régulièrement comme des recruteurs dans les années 1960 (et même plus tard), qui identifiaient les emplois comme » masculins « ou » féminins « sur la base de stéréotypes de genre ou indiquaient leurs préférences pour embaucher des travailleurs plus jeunes », a déclaré jeudi l’association Real Women in Trucking. un dépôt auprès de la Commission américaine pour l’égalité des chances en matière d’emploi.
Contenu de l’article
Les données extraites de la propre bibliothèque d’annonces en ligne de Facebook montrent que l’algorithme sélectionné pour recevoir certaines offres d’emploi était composé à plus de 99% d’hommes et à 99% de moins de 55 ans, même si les employeurs avaient demandé qu’ils soient montrés à des personnes de tous âges et les sexes, selon la plainte.
Sur la plate-forme, « les demandeurs d’emploi plus âgés sont généralement beaucoup moins susceptibles que les demandeurs d’emploi plus jeunes de recevoir des offres d’emploi, et les hommes reçoivent la part du lion des annonces pour des emplois de cols bleus, en particulier des emplois dans des secteurs qui ont historiquement exclu les femmes », Real Women in Réclamations de camionnage. « Pendant ce temps, les femmes reçoivent une part disproportionnée d’annonces pour des emplois moins bien rémunérés dans les services sociaux, les services alimentaires, l’éducation et les soins de santé, en particulier les postes administratifs qui sont historiquement considérés comme des emplois féminins. »
Publicité 3
Contenu de l’article
Un porte-parole de Meta a déclaré que la société examinait la plainte et s’efforçait de prévenir la discrimination et de rendre ses publicités plus transparentes. « Aborder l’équité dans les publicités est un défi à l’échelle de l’industrie et nous avons collaboré avec des groupes de défense des droits civiques, des universitaires et des régulateurs pour faire progresser l’équité dans notre système de publicité », a déclaré la société dans un communiqué envoyé par courrier électronique. « Nous développons activement une technologie conçue pour faire des progrès supplémentaires dans ce domaine. »
Les lois américaines sur les droits civils, vieilles de plusieurs décennies, interdisent les annonces d’emploi ou de logement qui indiquent une préférence basée sur le sexe ou l’âge, et les agences fédérales ont déterminé que l’utilisation de ces critères pour cibler les annonces en ligne viole ces interdictions.
« Alors que Facebook a été averti pendant des années par les défenseurs des droits civiques et les régulateurs que le biais algorithmique est susceptible d’être un problème grave sur sa plate-forme et violerait une série de lois sur les droits civils, Facebook n’a pas réussi à mettre fin à la discrimination algorithmique qui se produit dans la plupart des cas. lorsque Facebook publie des offres d’emploi dans tout le pays », a déclaré le groupe de camionneurs dans sa plainte.
Publicité 4
Contenu de l’article
-
Howard Levitt : Vous cherchez à licencier une employée enceinte ? Procéder avec une extrême prudence
-
Goldman Sachs a payé plus de 12 millions de dollars pour enterrer les allégations de culture sexiste explosive de son partenaire
-
Bezos poursuivi par une ex-gouvernante pour discrimination raciale et conditions de travail
-
Apple « obsédé par la jeunesse »: un manager dans la soixantaine accuse l’âgisme de ne pas avoir de prime au mérite
En juin, Meta a accepté de régler un procès intenté par le ministère américain de la Justice alléguant que le système d’annonces immobilières de Facebook était discriminatoire en fonction de caractéristiques telles que la race, le handicap et le sexe. En 2019, la société a réglé des poursuites et des plaintes déposées par des groupes comprenant l’American Civil Liberties Union et les Communications Workers of America. Dans le cadre de cet accord, Facebook a déclaré qu’il ne laisserait plus les annonceurs cibler les offres d’emploi ou de logement en fonction de l’âge ou du sexe.
La plainte de jeudi attribue à l’entreprise la prise de « mesures significatives » requises par ce règlement. « Mais l’algorithme de Facebook a reproduit le même problème », affirme le groupe de camionneurs.
« C’est un problème non seulement sur Facebook, mais probablement sur de nombreuses autres plateformes », a déclaré l’avocat de Real Women in Trucking, Peter Romer-Friedman, qui a également représenté les plaignants dans le règlement de 2019, dans une interview. « Ce que ces disparités extrêmes nous disent, c’est que le biais algorithmique va être un problème à moins que vous ne l’empêchiez et ne l’éliminiez consciemment. »