Meta règle son procès avec le ministère de la Justice concernant les algorithmes de diffusion d’annonces

Le ministère américain de la Justice a annoncé aujourd’hui qu’il avait conclu un accord avec Meta, la société mère de Facebook, pour résoudre un procès alléguant que Meta s’était livré à une publicité discriminatoire en violation du Fair Housing Act (FHA). Le règlement proposé est soumis à l’examen et à l’approbation d’un juge du district sud de New York, où la poursuite a été initialement déposée. Mais en supposant qu’il aille de l’avant, Meta a déclaré qu’il avait accepté de développer un nouveau système pour les annonces immobilières et de payer une pénalité d’environ 115 000 $, le maximum prévu par la FHA.

« Lorsqu’une entreprise développe et déploie une technologie qui prive les utilisateurs d’opportunités de logement basées en tout ou en partie sur des caractéristiques protégées, elle a violé le Fair Housing Act, tout comme lorsque les entreprises se livrent à une publicité discriminatoire en utilisant des méthodes publicitaires plus traditionnelles », a déclaré le procureur américain Damian. Williams a déclaré dans un communiqué. « En raison de ce procès révolutionnaire, Meta va – pour la première fois – changer son système de diffusion d’annonces pour lutter contre la discrimination algorithmique. Mais si Meta ne parvient pas à démontrer qu’il a suffisamment modifié son système de livraison pour se prémunir contre les biais algorithmiques, ce bureau poursuivra le litige.

Le procès était le premier biais algorithmique contesté du ministère de la Justice en vertu de la FHA, et il a affirmé que les algorithmes que Meta utilise pour déterminer quels utilisateurs de Facebook reçoivent des annonces immobilières reposaient en partie sur des caractéristiques telles que la race, la couleur, la religion, le sexe, le handicap, la situation familiale et l’origine nationale – qui sont tous protégés par la FHA. Des enquêtes extérieures ont fourni des preuves à l’appui des affirmations du ministère de la Justice, notamment un article de 2020 de Carnegie Mellon qui a montré que les biais dans les outils publicitaires de Facebook exacerbaient les inégalités socio-économiques.

Meta a déclaré que, dans le cadre de l’accord avec le ministère de la Justice, il cessera d’utiliser un outil publicitaire pour les annonces immobilières, Special Ad Audience, qui se serait appuyé sur un algorithme discriminatoire pour trouver des utilisateurs qui « ressemblent » à d’autres utilisateurs sur la base de caractéristiques protégées par la FHA. . Meta développera également un nouveau système au cours des six prochains mois pour « traiter les disparités raciales et autres causées par son utilisation d’algorithmes de personnalisation dans son système de diffusion d’annonces pour les annonces immobilières », selon un communiqué de presse, et mettra en œuvre le système d’ici le 31 décembre. 2022.

Un examinateur tiers indépendant enquêtera et vérifiera de manière continue si le nouveau système de Meta répond aux normes convenues par l’entreprise et le ministère de la Justice. Si le ministère de la Justice conclut que le nouveau système ne traite pas suffisamment la discrimination, le règlement sera résilié.

Meta doit informer le ministère de la Justice s’il a l’intention d’ajouter des options de ciblage.

Dans un article de blog, Meta a déclaré que son nouveau système s’appliquerait aux annonces liées à l’emploi et au crédit ainsi qu’au logement – probablement en réponse aux critiques du système de ciblage publicitaire de l’entreprise dans ces domaines également. L’étude susmentionnée de Carnegie Mellon a révélé que les publicités sur Facebook liées aux cartes de crédit, aux prêts et aux assurances étaient envoyées de manière disproportionnée aux hommes, tandis que les annonces d’emploi étaient diffusées à une plus grande proportion de femmes. Les co-auteurs ont découvert que les utilisateurs qui choisissaient de ne pas identifier leur sexe ou qui se qualifiaient de non binaires ou de transgenres voyaient rarement, voire jamais, des publicités de crédit de tout type.

Les responsables américains accusent depuis longtemps Meta de pratiques de ciblage publicitaire discriminatoires. En 2018, Ben Carson, alors secrétaire du Département américain du logement et du développement urbain, a déposé une plainte officielle contre Facebook pour des systèmes publicitaires qui « discriminent illégalement » les utilisateurs en raison de leur race, de leur religion et d’autres catégories. Une action en justice distincte déposée par la National Fair Housing Alliance en 2019, réglée depuis, alléguait que Meta fournissait des options de ciblage discriminatoires aux annonceurs.

Source-146