mardi, novembre 19, 2024

Instagram aurait servi des bobines de sexualisation d’enfants aux abonnés d’influenceurs adolescents

Suite à la prétendue controverse publicitaire de X impliquant des contenus antisémites, c’est désormais au tour de Meta d’être mise sous le feu des projecteurs pour son algorithme de contenu. D’après une expérience menée par Le journal de Wall Street, le service vidéo Reels d’Instagram diffuserait « des images risquées d’enfants ainsi que des vidéos ouvertement sexuelles pour adultes » pour tester les comptes qui suivaient exclusivement des influenceurs adolescents et préadolescents, à savoir de jeunes gymnastes et pom-pom girls. Ce type de publicité était censé être interdit sur les plateformes Meta.

Pour aggraver les choses, ce contenu salace a également été mélangé à des publicités représentant des marques américaines notables comme Disney, Walmart, Pizza Hut, Bumble, Match Group et même Le journal de Wall Street lui-même. Le rapport ajoute que le Centre canadien de protection de l’enfance a obtenu des résultats similaires avec ses propres tests séparément.

Alors que Walmart et Pizza Hut ont apparemment refusé de commenter, Bumble, Match Group, Hims (détaillant de médicaments contre la dysfonction érectile) et Disney ont depuis retiré leurs publicités de Meta ou ont pressé l’entreprise de résoudre ce problème. Compte tenu de la controverse antérieure sur X, les annonceurs sont évidemment encore plus sensibles au type de contenu affiché à côté de leurs publicités – en particulier pour Disney qui a été affecté à la fois par X et maintenant par Instagram.

En réponse, Meta a déclaré à ses clients qu’elle enquêtait et qu’elle « payerait pour des services d’audit de sécurité des marques afin de déterminer la fréquence à laquelle les publicités d’une entreprise apparaissent à côté du contenu qu’elle considère inacceptable ». Cependant, l’entreprise n’a pas fourni de calendrier ni de détails sur les mesures de prévention futures.

Bien que l’on puisse dire que de tels tests ne représentent pas nécessairement une expérience utilisateur réelle (comme les entreprises technologiques ont tendance à le soutenir), la tendance d’Instagram à regrouper le contenu de sexualisation des enfants était un problème connu en interne – avant même le lancement de Reels, selon les anciens et actuels Employés Meta interrogés par le WSJ.

Le même groupe de personnes a suggéré qu’une solution efficace nécessiterait une refonte des algorithmes chargés de transmettre le contenu associé aux utilisateurs. Cela dit, les documents internes consultés par le WSJ a suggéré que Meta a rendu difficile à son équipe de sécurité d’appliquer des changements aussi drastiques, car les performances du trafic sont apparemment plus importantes pour le géant des médias sociaux.

Source-145

- Advertisement -

Latest