Avant une audience majeure du Congrès sur la sécurité en ligne des enfants, Meta a annoncé une collaboration avec le Center for Open Science, une organisation à but non lucratif dédiée à la transparence dans la recherche universitaire. Dans le cadre de ce programme pilote, Meta déclare qu’elle partagera des « données de médias sociaux préservant la confidentialité » avec des chercheurs universitaires sélectionnés qui étudient le bien-être.
« Chez Meta, nous voulons faire notre part pour contribuer à la compréhension de la communauté scientifique sur la façon dont différents facteurs peuvent ou non être liés au bien-être des gens. Nous nous engageons à le faire d’une manière qui respecte la vie privée des personnes qui utilisent notre application », a déclaré Curtiss Cobb, vice-président de la recherche chez Meta, dans un communiqué de presse.
Les universitaires font pression depuis des années pour que les plateformes partagent davantage de données avec eux pour leurs recherches, mais à mesure que l’impact des médias sociaux sur la santé mentale devient une préoccupation de plus en plus urgente au Congrès, ces efforts se sont accélérés. En novembre, Meta a élargi l’accès des chercheurs aux données grâce à un produit de transparence appelé Meta Content Library, qui a permis d’analyser plus facilement à grande échelle les données déjà disponibles telles que les publications publiques, les commentaires et les réactions.
Mercredi, le fondateur et PDG de Meta, Mark Zuckerberg, témoignera devant le Congrès aux côtés des PDG de Discord, Snap, TikTok et X dans le cadre d’une audition sur la sécurité en ligne des enfants. En plus de jeter un os aux universitaires avant l’audience, Meta a également annoncé la semaine dernière qu’elle déployait de nouvelles restrictions de messagerie sur Facebook et Instagram, qui empêcheront les utilisateurs de moins de 16 ans de recevoir des messages d’adultes qu’ils ne suivent pas. Les tuteurs pourront également approuver ou refuser les modifications apportées par les adolescents aux paramètres de confidentialité par défaut. Meta a également pris certaines mesures pour limiter l’accès des adolescents aux contenus sur l’automutilation, le suicide et les troubles de l’alimentation.
Mais ces changements surviennent dans un contexte de surveillance croissante. Plus tôt ce mois-ci, des documents non expurgés faisant partie d’un procès en cours ont montré la « réticence historique » de Meta à protéger les enfants sur ses plateformes.
D’autres plateformes sociales ont également adopté de nouvelles initiatives en matière de sécurité à l’approche de l’audience de mercredi. X a annoncé qu’il embaucherait 100 modérateurs à Austin, au Texas, pour un centre « Confiance et sécurité » ; selon Axios, la PDG Linda Yaccarino a également rencontré des membres bipartites du Congrès pour discuter de la manière dont X gère l’exploitation sexuelle des enfants sur la plateforme. Pendant ce temps, la semaine dernière, X a été confronté à un problème de modération de contenu très médiatisé lorsque de fausses images pornographiques non consensuelles de Taylor Swift sont devenues virales. L’inquiétude du public face aux images abusives a même atteint la Maison Blanche, où la secrétaire de presse Karine Jean-Pierre a appelé le Congrès à prendre des mesures législatives.